Jean-Paul Gaillard
Cours de psychologie 1ère année (Licence 1)
Cours supprimé en 2007 ("les étudiants en psycho n'ont pas besoin d'épistémologie !")
Voir sur ce site la rubrique "Cercle des chercheurs disparus"
Approche systémique : théorie et pratique.
Chaque année, nous allons nous retrouver autour de l’approche systémique en psychologie : ce que nous allons travailler cette année n’est donc que le début d’un long cours qui va se dérouler sur 4 années, jusqu’au Master 1.
Tout naturellement, nous allons donc commencer par les bases nécessaires à une bonne compréhension de cet univers de pensée qu’on appelle univers des systèmes ou univers de la complexité.
Quelques définitions.
Système :
Un système c'est un ensemble d'éléments (cellules, organes, personnes, groupes, institutions) liés par des interactions dynamiques spécifiques et organisés en fonction d'une finalité, à savoir produire et maintenir son organisation.
Ce qui distingue un système d'un agrégat, ou d'un tas, ou d'une collection, c'est que les éléments qui composent cet ensemble-là, sont plus liés entre eux qu'avec n'importe quoi d'autre et que les qualités et les fonctions observables dans le système, n’existent pas dans chacun de ses éléments composants observés isolément.
C’est ce qui fait dire que dans un système, le tout est plus que l’ensemble des éléments qui le composent.
Humberto Maturana (1991) le définit ainsi :
« J’appelle système tout ensemble d’entités qui se distinguent d’autres entités parce qu’elles sont pIus liées entre elles qu’avec n’importe quoi d’autre »
Ludwig von Bertalanffy (1947) :
« complexe d’éléments en interaction »
Joël de Rosnay (1975) :
« ensemble d’éléments en interaction dynamique, organisé en fonction d’un but »
Edgar Morin (1977) :
« unité globale organisée d’interrelations entre éléments, actions ou individus »
J-C Benoit et coll. (1988) :
« ensemble constitué par des éléments qui sont en interaction, ainsi que les interactions elles-mêmes »
dans le cadre de ce cours, seuls les systèmes vivants, c'est-à-dire les végétaux et les animaux, ainsi que les systèmes sociaux créés par les animaux, nous intéressent. Résumons donc ce qui les caractérise :
- un système vivant est un ensemble de parties composantes qui elles-mêmes sont composées d’un ensemble d’éléments (un humain avec ses organes par exemple)
- ces parties composantes sont, par définition, couplées de façon stable (les organes du corps entre eux ou les membres d’une famille, par exemple)
- chacune des parties composantes est donc elle-même concevable comme une organisation (un organe ou un membre d’une famille par exemple)
- elles s’infligent donc des perturbations mutuelles redondantes (répétitives) qui déterminent un fonctionnement stable du système à travers l’émergence d’habitudes de fonctionnement et de rituels, tout en produisant son identité.
- Ces habitudes de fonctionnement et ces rituels, que nous appellerons coordinations d'actions, déterminent l’homéostasie du système.
Un système n’est donc pas un objet, mais un processus.
« l’identité du système, que nous appréhendons comme une unité concrète, provient de l’interdépendance des processus. Ces systèmes produisent leur identité; ils se distinguent eux-mêmes de leur environnement. »
Francisco Varela, Autonomie et connaîssance, page 45
Un système vivant, quel qu’il soit :
- se compose d’un nombre plus ou moins déterminé de parties composantes (l’organisme humain est puissamment déterminé sur ce plan, une famille l’est beaucoup moins, une société encore moins),
- est temporellement fini, c'est-à-dire qu’il naît, croît et meurt,
- montre des niveaux de hiérarchisation dynamiques (prévalence de telle partie composante dans tel type d’interaction avec le milieu)
- est finalisé, c'est-à-dire qu’il tend vers un ou des buts (perpétuer sa vie par exemple)
Mais il faut comprendre qu’un organisme vivant individuel est presque caricatural de ce qu’est un système : les systèmes vivants individuels, un être particulier au sein d’une espèce, montrent ce qu’on pourrait définir comme les caractéristiques maximales d’un système vivant, en terme de stabilité et de synchronisation dans les interactions intra-systémiques.
Lorsque nous modéliserons les caractéristiques de l’organisme l’humain vers des systèmes plus flous, comme un couple humain, une famille humaine, une équipe professionnelle, une communauté, une société, nous avons à entreprendre une traduction (au sens de Bruno Latour) de ces concepts, en ce que les processus en jeu dans ces systèmes peuvent se montrer beaucoup moins stables.
Nous verrons cela plus en détail au cours des années prochaines.
Approche systémique :
Qu'est-ce que l'approche systémique ?
C'est l'ensemble des méthodes, actuellement mises au point sur les bases de la théorie générale des systèmes et utilisées par l’ensemble des sciences de pointe, par exemple :
- par les sciences logiques (mathématiques, logiques de second ordre),
- par les sciences de la matière (physique, chimie),
- par les sciences de la nature (biologie, géologie, écologie, géographie, démographie...)
- par les sciences humaines (sociologie, économie, histoire, géographie, psychologie...),
et qui permettent, sur ces bases, d'organiser leurs connaissances en vue d'une plus grande efficacité de l'action
Les méthodes de l'approche systémique:
- modélisation :
Modéliser, c’est produire des énoncés consacrés à l’élaboration et à la mise en œuvre de méthodes de représentation des phénomènes perçus ou conçus complexes, afin d’anticiper d’éventuelles interventions intentionnelles et leurs conséquences enchevêtrées. (Le Moigne)
La science des systèmes ne prétend jamais produire des modèles achevés, qu’il s’agisse de modèles d’action ou de modèles de compréhension, à l’inverse des disciplines qui obéissent au paradigme cartésien. La modélisation de la complexité (les méthodes de conception-construction de modèles de phénomènes perçus complexes) se refuse à l’immobilisation de tel ou tel modèle en tant qu’objet achevé. Les phénomènes perçus complexes sont en fait des processus de type continu, c'est-à-dire pour lesquels il est le plus souvent impossible et inutile de désigner un début et une fin. Un modèle de type achevé ne peut pas en rendre compte.
- simulation :
La simulation est l’expérimentation sur un modèle. C’est une procédure de recherche scientifique et technique qui consiste à réaliser une reproduction artificielle (modèle) du phénomène que l’on désire étudier, à observer le comportement de cette reproduction lorsque l’on fait varier expérimentalement les actions que l’on peut exercer sur elle, et à en induire ce qui se passerait dans la réalité sous l’influence d’actions analogues. On a recours aux techniques de simulation face à l’impossibilité de recourir à l’expérimentation directe, en raison d’impératifs temporels, de contraintes budgétaires, d’obstacles naturels ou de considérations morales, ce qui est le cas en médecine et en psychothérapie.
- action combinatoire :
Elle consiste à ne jamais intervenir massivement en un seul point d’un système complexe, mais au contraire rétroagir avec lui en combinant dans le temps et dans l’espace une série d’interventions fines dont le résultat des premières va définir et orienter les suivantes. (De Rosnay)
Une action ponctuelle sur un seul élément d'un système complexe, produit ce qu'on appelle des effets paradoxaux (ou effets pervers), à savoir que le système se mobilise tout aussi massivement pour lutter contre les effets de cette action ponctuelle.
En psychologie par exemple, c'est souvent à partir d’actions ponctuelles massives, renouvelées au même niveau que se fabriquent les différentes formes de la chronicité, telles que la résistance au traitements, la répétition cyclique des mêmes symptômes, les déplacements perpétuels de symptômes, etc.
Une question fondamentale se pose alors, à laquelle une psychopathologie clinique digne de ce nom se doit d’apporter des réponses concrètes et efficaces, c'est-à-dire autrement qu’en excusant par avance l’incompétence du psychologue à travers l’invocation de « résistances » chez les patients :
- Comment se fait-il qu’un système humain (individu, couple, famille, équipe) en vienne à se mobiliser pour lutter contre l'aide que le psychologue lui apporte ?
N'oubliez pas que les systèmes vivants, individuels et collectifs, montrent tous une même caractéristique : ils sont organisés en fonction d’un but qui est d’assurer leur survie.
Lorsque un système humain (famille, couple, équipe, société) se trouve confronté à un problème complexe et urgent qui dépasse ses compétences logiques actuelles en matière de résolution de problème, il met malgré tout en place une solution ; cette solution même si elle se montre très boiteuse, même si elle génère un symptôme dans une partie du système, cette solution est la moins mauvaise solution que ce système (une famille, par exemple) a pu produire... et si quelqu'un prétend le guérir de sa solution, ce système résistera vaillamment à l’effort de ce quelqu'un.
Tous les praticiens chevronnés savent que les « bons conseils » ne servent à rien, qu’ils n’aboutissent que très rarement au résultats espérés par le praticien.
Mais précisément, qu’est-ce qu’un conseil ?
Un conseil n’est jamais autre chose que le reflet :
- soit du « bon sens » du praticien (c'est-à-dire ce qui a marché pour lui),
- soit de ses croyances et/ou de ses savoirs (c'est-à-dire ses héritages familiaux et culturels, ou ce qu’il a appris à la fac et dans les livres),
Un conseil n’est donc jamais autre chose qu’une tentative d’instruire l’autre de ce que nous croyons, ou que nous savons, ou que nous croyons savoir…
Nous verrons que cette résistance des systèmes vivants, individuels et collectifs, à nos tentatives d’instruction, relève d’une caractéristique fondamentale des systèmes vivants : l’auto-organisation. Les systèmes vivants sont des systèmes auto-organisants, c'est-à-dire aussi auto-informants.
Mais nous le développerons plus tard : le modèle auto-organisationnel est à un peu trop complexe pour une première année, et il n’a été développé qu’à partir de 1970, alors que d’autres caractéristiques des systèmes vivants avaient déjà été conceptualisées.
Pour mieux comprendre tout ça, opérons un petit détour par ce qu’on appelle symptôme.
Symptôme :
Quelle est la définition classique du symptôme ? J’ai bien dit « définition classique » pour vous signaler que l’approche systémique propose une définition très différente du symptôme.
Classiquement, donc, un symptôme est défini comme une souffrance exprimée par un individu. Nous remarquons donc que, classiquement, un symptôme s’observe dans un individu ; la psychopathologie classique considère qu’une maladie est par définition individuelle et que, donc, le lieu du symptôme et le lieu de la maladie sont confondus dans un seul et même organisme.
Cette logique est évidemment correcte pour la plupart des maladies organiques que la médecine répertorie et soigne ; mais en psychopathologie cette logique est malheureusement très souvent nuisible à la compréhension des troubles dits psychiques, ainsi qu’à une action efficace sur eux.
Nous verrons bientôt que ce qui nous conduit, comme naturellement, à confondre le lieu du symptôme et le lieu de la maladie est un modèle logique qu’on appelle modèle mécaniste ou modèle cartésien.
La théorie générale des système rappelle au psychologue ce que les sociologues savent depuis que la sociologie existe, à savoir que les êtres humains font toujours partie de systèmes plus vastes qu’eux-mêmes, tels que couple, famille, équipe, institution, communauté, société… On dit qu’ils en sont les parties composantes.
Le modèle systémique a donc permis d’observer ce que le modèle cartésien ne permettait pas d’observer : que le lieu d’un symptôme (un membre de la famille) n’est pas toujours le lieu de la maladie, qui peut être un mode d’interactions particulier dans cette famille.
Je vous propose donc la définition minimale suivante, qui sera enrichie au fil des années :
Un symptôme est un des résultats de la moins mauvaise solution qu'un système humain (une famille, par exemple) produit, pour faire face à un problème complexe qu'il ne peut réguler par ses moyens habituels et qui lui permet, néanmoins, de restaurer une homéostasie suffisante.
_______________
Equifinalité, complexification, homéostasie.
Ludwig von Bertalanffy, dans son ouvrage majeur « Théorie générale des systèmes » (Dunod 1980) met en évidence trois caractéristiques présentes dans tous les systèmes vivants, individuels et collectifs.
1. Principe d'équifinalité :
Qu'énonce ce principe ?
Dans tout système vivant le même état final peut être obtenu à partir de conditions initiales différentes. (von Bertalanffy p. 38)
A l’inverse, le principe que nous a inculqué le paradigme mécaniste (Newton) est celui-ci :
A partir de conditions initiales identiques, le même état final est toujours obtenu. C’est le principe d’unifinalité.
Mais ce principe d’unifinalité, qui est hérité de la Physique et de la Chimie classiques, ne se vérifie que pour les opérations physiques et chimiques simples. Il trouve ses limites dès qu’on aborde les comportements des systèmes complexes en général et des systèmes vivants en particulier.
2. principe de complexification :
Qu'énonce ce principe ?
tout au long de leur existence, les systèmes vivants accroissent leur organisation.
A l’inverse, le principe que nous a inculqué la thermodynamique est celui-ci :
« La tendance générale des événements dans la nature physique est d’aller vers des états de désordre maximum et des nivellements de différence, avec comme vision finale ce qu’on appelle la mort calorique de l’univers. »
(von Bertalanffy p. 39)
Ce principe est en fait le second principe de la thermodynamique, le principe de Carnot-Clausius connu aussi sont le nom de principe d’entropie.
La thermodynamique, au 19ième siècle, a constitué une révolution au sein de la physique et lui a permis d’aborder tous les domaines que la physique mécanique ne pouvait qu’ignorer parce que trop étrangers à ses lois. Mais, appliquée aux système vivants, la thermodynamique échoue à rendre compte du fait que, à l’évidence, les systèmes vivants, loin d’obéir à la loi d’entropie et de se diriger vers des états de désordre maximum et des nivellements de différence, montrent la caractéristique inverse : ils accroissent indéfiniment leur organisation et produisent de la différence, c'est-à-dire de l’information… jusqu’à ce que la mort les rattrape, bien entendu !
3. principe d’homéostasie :
Claude Bernard écrivait ceci, en 1865:
« Tous les mécanismes vitaux, quelque variés qu'ils soient, n'ont toujours qu'un but, celui de maintenir l'unité des conditions de la vie dans le milieu intérieur. »
Et en 1938, Walter Cannon (neuro-physiologiste américain, né en 1871, mort en 1945, dont nous reparlerons en Master 1) reprenait ce modèle génial, en le complétant et en lui donnant le nom d’homéostasie :
« Les êtres vivants supérieurs constituent un système ouvert présentant de nombreuses relations avec l'environnement. Les modifications de l'environnement déclenchent des réactions dans le système ou l'affectent directement, aboutissant à des perturbations internes du système. De telles perturbations sont normalement maintenues dans des limites étroites parce que des ajustements automatiques, à l'intérieur du système, entrent en action, et que de cette façon sont évitées les oscillations amples, les conditions internes étant maintenues à peu près constantes (...). Les réactions physiologiques coordonnées qui maintiennent la plupart des équilibres dynamiques du corps sont si complexes et si particulières aux organismes vivants, qu'il a été suggéré qu'une désignation particulière soit employée pour ces réactions: celle d'homéostasie. »
C'est à partir de ces trois premiers éléments que la biologie, puis les sciences humaines, se sont peu à peu arrachées aux modèles classiques de la physique mécanique et thermodynamique, et ceux de la chimie minérale.
Equifinalité, complexification et homéostasie sont aujourd’hui parties intégrantes des modèles de la complexité du vivant.
Implications concrètes de ces trois principes, en psychologie.
Mais, concrètement, quelles sont les implications de ces trois principes en psychologie et, plus précisément, en psychothérapie ?
1) équifinalité : A partir du fait que pour tout système vivant le même état final peut être obtenu à partir de conditions initiales différentes, il devient évident qu’il n'y a pas « une » bonne manière de soigner efficacement un système humain, il y en nécessairement plusieurs !
Cela signifie qu’aucun principe thérapeutique ne peut prétendre à l'exclusivité quant-à l'efficace, toutes les études sérieuses faites sur l’efficacité générale des psychothérapies montrent que, parmi les techniques suffisamment connues, aucune ne dépasse les autres, si ce n’est sur quelques spécialités, ces spécialités se payant parfois d’une grande inefficacité dans leur prétention à soigner les troubles auxquels elles ne sont pas dédiées. Nous étudierons cela en détail en L2.
2) complexification : A partir du fait que tout au long de leur existence, les systèmes vivants accroissent leur organisation, il devient évident qu’un système humain possède en lui-même d'importantes capacités d’auto-régulation, c'est-à-dire aussi d'auto-guérison. Nous verrons qu’en psychothérapie, soigner consiste essentiellement à faire le nécessaire pour que ces capacités se réveillent là où elles avaient cessé de se manifester (mon collègue et ami Guy Ausloos appelle cela « la compétence des familles ».
3) homéostasie : A partir du fait que les effets des perturbations en provenance du milieu sont maintenus dans des limites étroites grâce à des ajustements automatiques qui entrent en action à l'intérieur du système, de façon les conditions internes du système sont maintenues à peu près constantes, il devient évident que ce qui, dans les différents modèles psychothérapeutiques a été appelé « résistance », relève des processus homéostatiques présents dans tous les systèmes vivants et indispensables à leur survie. Il convient donc de travailler dans le plus grand respect de cette fonction vitale, c'est-à-dire, par exemple, d’utiliser l’action combinatoire (qui consiste à ne jamais intervenir massivement en un seul point d’un système complexe, mais au contraire rétroagir avec lui, nous laisser influencer par lui, en combinant dans le temps et dans l’espace une série d’interventions fines dont le résultat des premières va définir et orienter les suivantes).
Rappelez vous que ce concept de résistance permet aux psychologues et psychothérapeutes de tous poils de ne jamais interroger les limites de leurs compétences et donc de ne pas assumer leurs responsabilités : si la thérapie ne marche pas, c’est la faute à la résistance du patient et non aux limites de mes compétences… Très confortable, mais peu honnête !
_______________________________
Les structures fondamentales de la science.
« Le soi-disant spécialiste en sciences du comportement, qui ignore tout de la structure fondamentale de la science et de 3000 ans de réflexion philosophique et humaniste sur l’homme - qui ne peut définir, par exemple, ni ce qu’est l’entropie ni ce qu’est un sacrement - ferait mieux de se tenir tranquille, au lieu d’ajouter sa contribution à la jungle actuelle des hypothèses bâclées. »
G. Bateson 1977 : Vers une écologie de l’esprit 1, p. 17)
Quand gregory Bateson, qui est un des plus grands penseurs du 20ième siècle, parle de « spécialistes en sciences du comportement », il fait référence à l’ensemble des chercheurs et des praticiens en psychologie, en psychiatrie et en sociologie : nous sommes donc directement concernés.
Qu’est-ce que Bateson appelle « la structure fondamentale de la science » ?
En fait, pour répondre à cette question, il nous faut faire un détour par l’épistémologie, par cette logique des logiques, dont le but est de déterminer les origines logiques de chaque science, leur valeur et leur portée.
Les images communes de la science
« La science, comme l’art, la religion, le commerce, la guerre (…), est fondée sur des présuppositions. »
Gregory Bateson, La nature et la pensée.
Spontanément, nous avons de la science une idée toute simple : depuis l'aube de l'humanité, des hommes qu'on appelle savants ou chercheurs ont concouru à l'accumulation de données et d'expériences qui, s'articulant les unes aux autres au fil du temps, permettent à l'humain de progresser dans sa compréhension de la réalité du monde naturel.
Cette vision de la science semble tomber sous le sens. Cependant, si nous nous penchons un instant sur les implications logiques de cette innocente définition, il nous apparaît deux choses pas innocentes du tout :
- la science y est définie comme se développant par le fait d'une accumulation linéaire, progressive et continue de données,
- la science y est définie comme une voie d’accès directe au monde naturel.
Pour l’instant nous ne développerons que le premier point.
La notion de développement par accumulation linéaire nous a été très largement distillée, par les manuels scolaires, puis par les manuels scientifiques. Nous imaginons donc volontiers que les connaissances scientifiques se dégagent progressivement de la boue des superstitions ; l’implication logique de ce schéma linéaire est que l'intelligence humaine progresserait et grandirait au même rythme… et que, donc, nous serions beaucoup plus intelligents que Socrate, Platon, Averroès ou Copernic, ce qui est évidemment du dernier ridicule.
Les historiens ont donc contribué, dans un premier temps, à forger puis à véhiculer cette vision idyllique voulant que les connaissances scientifiques se dégagent progressivement de la boue des superstitions, et que l'intelligence humaine progresse et grandisse au même rythme, grâce à quelques savants géniaux à qui on pouvait attribuer telle ou telle découverte ou invention : les historiens obéissaient à une logique particulière :
- le soucis de la cohérence du récit,
- le soucis de la simplicité du récit,
Ils construisaient une belle courbe monotone allant du bas vers le haut, émaillée de quelques noms et de quelques dates considérés comme très significatifs, cette logique leur permettait de considérer comme négligeables tous les détails trop compliqués à intégrer ou trop dissonants, qu'ils définissaient comme des péripéties.. Pour la physique mécanique, par exemple, il fallait se contenter de trois noms en 2000 ans : Aristote (né en 384 av. JC), Galilée (né en 1584), Newton (né en 1642) ; ça fait quand même beaucoup de péripétie négligées !
Avec l’avènement du scientisme triomphant se proposant comme la nouvelle religion qui remplacera toutes les autres (auguste Conte 1798-1857), l'histoire des sciences ou plutôt une certaine histoire des sciences, est devenue indissociable de l'histoire générale ; les manuels scolaires s’en font largement l’écho, en mettant en vedette quelques grands inventeurs, de Copernic à Pasteur, qu’ils présentent comme de véritables révolutionnaires de la science moderne, alors que Pasteur était beaucoup plus intéressé par les brevets qu’il déposait pour gagner le plus d’argent possible et que Copernic était autant un astrologue qu’un astronome. Ces éléments biographiques ne diminuent en rien leurs mérites : ils les rendrent simplement plus humains.
Avec la naissance de notre siècle et le décollage de la technologie, la conception générale de ce que doit être l'histoire se transforme ; l’histoire doit s'inspirer du modèle de la science moderne, elle se veut scientifique et se dote de nouveaux outils d’investigation et de croisement de données.
A partir de quoi les historiens des sciences commencent à éprouver quelques difficultés à faire valoir les deux options sur lesquelles l’histoire des sciences s’était construite à partir de paramètres tels que la continuité, la cohérence et l’accumulation ; de sorte que l'option développement par accumulation et l’option grands découvreurs s’effondrent.
Ce nouveau regard met en évidence un certain nombre d'incohérences, d'accidents, d'antagonismes, de dissonances qui, soudain, rendent impossible la représentation du développement des sciences produite par les manuels scolaires et universitaires.
En effet, la représentation défendue par les manuels scolaires et universitaires, qui impliquait :
- qu'à chaque étape on soit capable d'isoler, pour une invention ou une découverte, son auteur, et la dater ;
- que les théories dépassées soient contraires à la science, puisqu' abandonnées ;
- que le développement progressif de la science n'ait eu pour entrave que l'obscurantisme et les superstitions,
…il apparaissait de plus en plus que cette représentation de la science relevait plus d'une croyance, d’un mythe, que de ses fonctionnements réels.
Epistémologie, science et réalité.
L’épistémologie est la science de la connaissance. Elle répond au questions suivantes :
- comment, dans une discipline donnée, la connaissance s’opère-t-elle ?
- quelle est, pour un champ déterminé, la manière dont s’établit le savoir ?
- quels sont les procédés utilisés par une science ou une discipline pour constituer ses objets ?
- à quel degré de certitude une discipline est-elle capable d’accéder étant donné les moyens dont elle dispose ?
- quelle sorte de vérité propose-t-elle ?
L’épistémologie est aussi la science qui élabore une théorie générale des sciences dans leurs contextes historiques et culturels.
A partir du 20ième siècle, l’histoire des sciences s’est donnée les outils de l’épistémologie, les historiens des sciences sont devenus des épistémologues.
Après qu’ils aient fait tomber ce premier mythe d’une science lisse, progressant linéairement par accumulation, ils se sont attaqués à un second mythe très important, qu’ils n’ont pas tardé à faire tomber : le mythe du réalisme scientifique, selon lequel la science travaille sur la réalité du monde naturel et qu’elle dévoile progressivement la réalité de l’univers.
Karl Popper et la réfutabilité
comme critère de scientificité d’une discipline.
Karl Popper est un épistémologue dont les travaux ont eu et ont encore une influence considérable sur la définition de la science.
A la question : « la science dit-elle la vérité ? », il répond non. Le propre de la science n’est pas d’apporter des preuves, elle en est incapable. Le propre de la science est que ses propositions soient réfutables.
Il oppose :
- le dispositif scientifique d’une part : par définition toujours réfutable,
- et le dispositif métaphysique et idéologique qui, lui n’est jamais réfutable.
Pour Popper les vérités scientifiques ne sont que des erreurs en sursis.
Ecoutons-le :
« j’en arrivais à cette conclusion que l’attitude scientifique était l’attitude critique. Elle ne recherchait pas les vérifications mais des expériences cruciales. Ces expériences pouvaient réfuter la théorie soumise à l’examen, jamais elles ne pouvaient l’établir. » Popper K. (1934) La logique de la découverte scientifique.
Ce principe de réfutabilité, maladroitement retraduit de l’anglais en falsifiabilité (vous entendrez souvent dire « falsifiable » pour « réfutable »), implique que « toute théorie scientifique n’est qu’une hypothèse jetée sur le monde » (Popper)
On ne peut donc jamais affirmer qu’une théorie est vraie. « la science ne prouve pas, elle éprouve » (Popper).
Les épistémologues, puis les scientifiques eux-mêmes, mettent peu à peu en évidence ceci que le scientifique, pas plus que quiconque, n’a aucun accès direct au monde extérieur, qu’il ne fait que construire des mondes, des univers de sens et des univers de significations. Actuellement, tous, peu à peu adoptent ce qu’on appelle le modèle constructiviste, c'est-à-dire qu’ils admettent que l’humain, que ce soit par l’intermédiaire de ses sens, de son intelligence ou des matériels les plus performants, n’a aucun accès direct au monde extérieur : il ne peut qu’en construire des représentations, des modèles dont il n’a que l’espoir qu’ils soient proches du monde réel, sachant que le monde réel ne se manifeste à eux que dans leurs échecs, là où les modèles ne marchent pas ! (Varela)
De nos jours, il n’est pas un épistémologue, pas non plus un chercheur conséquent, qui n’admette la thèse constructiviste.
Jean-Pierre Changeux, neurobiologiste, écrit ceci :
« le scientifique construit des modèles qu’il confronte au réel. Il les projette sur le monde, les adopte ou les rejette en fonction de leur adéquation avec celui-ci sans, toutefois, prétendre l’épuiser. La démarche du scientifique est débat critique, « improvisation déconcertante », hésitation, toujours consciente de ses limites. »
Changeux 1994, J-P Raison et plaisir. Odile Jacob.
François Jacob raconte :
« contrairement à ce que j’avais pu croire, la démarche scientifique ne consistait pas simplement à observer, à accumuler des données expérimentales et en tirer une théorie. Elle commençait pas l’invention de mondes possibles, pour le confronter, par l’expérimentation, au monde extérieur. Et c’était ce dialogue sans fin entre l’imagination et l’expérience qui permettait de se former un représentation toujours plus fine de ce qu’on appelle « la réalité » »
Bruno Latour et Michel Calon, qui sont les meilleurs représentants en France de l’école dite des Sciences Studies, qui étudie les fonctionnements de la science dans le quotidien des laboratoires, tiennent le même discours :
« la nature ne parle pas d’elle-même ; les faits scientifiques sont construits. (…) Entre « la réalité » et le discours tenu sur elle, se situe un ensemble d’opérations qui introduisent une équivalence et qui permettent aux scientifiques de parler au nom de la nature, en traduisant les résultats qu’ils obtiennent dans leurs laboratoires. »
(Calon, Latour op. cit. p. 8).
La mathématicienne Nicole Berline (Chercheure à Polytechnique) souligne le problème qu’a généré dans l’enseignement des mathématiques la croyance selon laquelle la science se développerait par le fait d'une accumulation linéaire, progressive et continue de données :
« Une première et très grave erreur qui a été commise par l'enseignement des mathématiques a été de ne pas tenir compte de l'évolution de la science au cours des âges, soit que cette évolution ait été presque totalement ignorée, soit qu'elle n'ait été perçue que comme un développement purement quantitatif. Consciemment ou non, l'enseignement s'est souvent comporté comme si toute théorie mathématique était parfaite dès son apparition et comme si le travail des générations de mathématiciens n'avait eu pour objet et pour résultat qu'une accumulation de théorèmes et de théories. » (Berline N. Encyclopædia Universalis 2006)
Le modèle constructiviste est donc actuellement le modèle le plus consistant dont disposent les scientifiques : vous avez constaté que les chercheurs les plus prestigieux s’en réclament clairement. Il faut savoir, cependant, que le noyaux dur du corps scientifique, la cohorte des tâcherons est toujours ancrés dans ses certitudes naïves d’un accès direct au monde et de la vérité scientifique.
Quant à nous, nous retiendrons que l’activité scientifique ne consiste pas en un dévoilement progressif de l’univers : elle construit des univers.
Une lecture épistémologique de la science
Nous allons voir que les structures de la pensée sont historiquement déterminées, qu’elles évoluent au fil de l’histoire des sociétés. Plusieurs fils d'Ariane sont susceptibles de nous fournir une intelligibilité de ces processus ; commençons par celui que propose un physicien américain, Thomas S. Kuhn.
Lire absolument :
Thomas S. Kuhn, La structure des révolutions scientifiques,1983, Paris, Flammarion.
Kuhn est physicien et non historien de formation ; ce détail biographique possède son importance car, au début des années cinquante, lorsqu'il commence ses travaux d’épistémologie, les modèles mentaux, les grilles de pensée, susceptibles d'aider à voir d’un œil nouveau les fonctionnements de la science n'existaient que dans le champ de la philosophie dont, par principe, les scientifiques ignorent tout.
Kuhn compare incidemment les manuels scientifiques qui l'ont accompagné tout au long de ses études universitaires avec les travaux récents des historiens des sciences. Cela se passe à l'occasion d'un enseignement qu'on lui demande de produire : un enseignement de physique pour des non-scientifiques. Il s’aperçoit alors qu’il lui est impossible de faire coïncider les récits documentés de l'histoire de la physique avec la présentation parfaitement lisse et continue des manuels à l’usage des physiciens.
Non seulement il s’aperçoit que ce que les manuels scientifiques imposent comme allant de soi les trois conditions dont nous avons parlé plus haut ne collent absolument pas avec travaux les plus récents en histoire des sciences, rappelez-vous :
· qu'à chaque étape on soit capable d'isoler, pour une invention ou une découverte, son auteur, et la dater ;
· que les théories dépassées soient contraires à la science, puisque abandonnées ;
· que le développement de la science n'ait eu pour entrave que l'obscurantisme et les superstitions
En comparant ce que ces manuels disent de la science et sa propre expérience de scientifique, Thomas S. Kuhn met alors en évidence ceci que la science se développe et fonctionne selon deux modes extrêmement différents :
- il y a ce qu'il appelle la science normale, celle, précisément, que nous présentent les manuels. C'est la face éclairée des sciences ;
- il y a les périodes orageuses et confuses de ce qu'il nomme les révolutions scientifiques, périodes que les manuels censurent radicalement. C'est la face obscure des sciences.
Comment la science normale fonctionne-t-elle ?
Kuhn met en évidence que chaque discipline de la science normale possède son paradigme (que nous appellerons « paradigmes locaux »), c'est-à-dire son ensemble clos de postulats universellement adoptés, qui fournissent à la communauté des chercheurs les problèmes types qui les occupent et leurs solutions :
« C'est l'étude de ces paradigmes,(...), qui prépare principalement l'étudiant à devenir membre d'une communauté scientifique particulière, avec laquelle il travaillera plus tard. Comme il se joint ici à des hommes qui ont puisé les bases de leurs connaissances dans les mêmes modèles concrets, son travail l’amènera rarement à s’opposer à eux sur des points fondamentaux. Les hommes dont les recherches sont fondées sur les mêmes paradigmes adhèrent aux mêmes règles et aux mêmes normes dans la pratique scientifique . »
Vous avez bien pris note de ceci : ce type de paradigme, nous l’appellerons paradigme local, parce que chaque discipline et même chaque sous-discipline, possède le sien. Nous distinguerons en effet un second type de paradigme, de niveau supérieur : les paradigmes-maîtres dont nous parlerons plus tard.
Concrètement, qu'est-ce qu'un paradigme local ?
Un paradigme local est un postulat adoptés par les chercheurs d’une discipline et qui fournit à cette communauté de chercheurs les problèmes types qui l’occupent et leurs solutions :
En optique, par exemple. L’optique est une sous-discipline de la physique dont l’objet d’étude est la lumière.
J’ai écrit une petite comptine pour illustrer les changements de parapdigmes locaux qui s’y sont produits en deux siècles :
· Au XVIII° siècle, Newton « découvre » que la lumière est constituée de corpuscules matériels (ce qu’on appelle « découverte » est en fait toujours une invention).
· La découverte fait grand bruit dans le monde scientifique et, après d'âpres luttes d'Ecoles, le corps scientifique dans son plus large ensemble admet la découverte de Newton ; tous les opticiens établissent leurs recherches à partir de cette base qui est devenue la réalité de la lumière, et même aussi la vérité sur la lumière : la lumière est constituée de corpuscules matériels.
· Au XIX° siècle, Fresnel et Young découvrent que la lumière résulte du mouvement d'une onde transversale.
La découverte fait grand bruit dans le monde scientifique et, après d'âpres luttes d'Ecoles, le corps scientifique dans son plus large ensemble admet la découverte de Fresnel et Young ; tous les opticiens établissent leurs recherches à partir de cette base, qui est devenue la réalité de la lumière, et même aussi la vérité sur la lumière : la lumière résulte du mouvement d'une onde transversale.
· Au XX° siècle, Planck et Einstein découvrent que la lumière est constituée de photons, c'est-à-dire d'entités de la mécanique quantique, qui présentent certaines caractéristiques des ondes et certaines caractéristiques des particules.
La découverte fait grand bruit dans le monde scientifique et, après d'âpres luttes d'écoles, le corps scientifique dans son plus large ensemble admet la découverte de Planck et Einstein ; tous les opticiens établissent leurs recherches à partir de cette base, qui est devenue la réalité de la lumière, et même aussi la vérité sur la lumière : la lumière est constituée de photons.
Le quatrième couplet est sous presse, depuis quelques années déjà...!
Corpuscules matériels ? Onde transversale ? Photon ?
Nous avons là trois hypothèses plus ou moins contradictoires et qui se sont successivement exclues, dans le décours de l'histoire des sciences.
La science normale, en matière d'optique, fut donc successivement incarnée, entre le XVII° et le XX° siècle, par trois Ecoles qui, bien qu'elles prétendent décrire la même chose, soit le phénomène de la lumière, le font depuis trois univers conceptuels qui ne peuvent pas coexister et qui s'annulent mutuellement. Il est malgré tout impossible de nous tirer de ce mauvais pas en prétendant que ce qui précéda la physique quantique n'est pas de la science !
Fresnel et Young étaient d'authentiques scientifiques, qui ont fort efficacement contribués au développement de la physique. Et qui oserait prétendre que Newton fut un tenant de l'obscurantisme ? Kuhn, à ce propos, nous avertit :
« Chacun peut espérer convertir l’autre à sa conception de la science et de ses problèmes, aucun ne peut espérer prouver son point de vue. La concurrence entre paradigmes n’est pas le genre de bataille qui puisse se gagner avec des preuves. » (p. 204)
Ces exemples sont une aide pour comprendre que :
- au fil du temps, une « vérité » scientifique bascule, plus ou moins régulièrement, au profit d'une autre « vérité » scientifique, qui souvent n'a rien à voir avec la précédente. Avec Kuhn, nous nommerons ce phénomène : révolutions scientifiques ;
- chaque nouvelle vérité scientifique fonctionne très rapidement comme une vérité éternelle dont il n'est pas nécessaire de parler : un paradigme (local) est donc « la vérité éternelle » en vigueur à une époque donnée ;
- dans le même mouvement, la vérité précédente devient une erreur liée à un obscurantisme supposé, que l'on rejette sans vergogne hors de l'univers de la science;
- l'univers de la science est donc systématiquement confondu avec l'univers décliné sur le paradigme en vigueur ;
- très vite, on ne parle donc plus du paradigme et il est recouvert par les théories élaborées à partir de lui ;
- plusieurs théories du même objet peuvent coexister : soit qu'elles exploitent des champs différents dans l'univers du paradigme, soit qu'elles se concurrencent sur un même champ.
La psychologie est très intéressée par la manière dont ces paradigmes locaux se transmettent, des laboratoires vers le grand public : en effet, le phénomène qui consiste, pour chacun d’entre nous, à entériner les paradigmes en vigueur ne relève pas d’un choix théorique ou idéologique, pas plus que d’un choix conscient : le niveau logique en cause est d’ordre cognitivo-affectif. Quand un astrophysicien vous parle du big bang, vous croyez qu’il vous parle d’un fait, d’une réalité ; beaucoup d’astrophysiciens le croient aussi. Mais ce n’est rien d’autre qu’un paradigme local, qui d’ailleurs est actuellement combattu par un paradigme concurrent radicalement divergent : celui de l’univers quasi-stationnaire.
Cette façon que nous avons de nous soumettre aux paradigmes en vigueur les habille des qualités du naturel : ils sont à la fois intangibles et incontestables. La tâche des épistémologues est donc assez présomptueuse, puisqu’ils soulèvent un coin du décor que les scientifiques et tout le monde dans une époque avec eux confondent avec la réalité du monde.
Il apparaît donc que la science normale fonde son activité sur une double présomption :
- elle « sait » comment est constitué le monde naturel,
- et elle prétend y avoir accès.
Ce qu’on appelle « science moderne », qui est le modèle scientifique développé entre le 18ième et le 20ième siècle, est donc une science « réaliste ». On parle de réalisme doctrinal et de réalisme méthodologique, pour désigner des variations dans cette croyance.
Et les paradigmes locaux du moment lui servent de regard sur le monde, sans que les scientifiques normaux ne se posent jamais la question de savoir que ce regard sur le monde n’est en fait que ce que les lunettes de leurs paradigmes locaux dessinent.
Ne nous hâtons pas pour autant de considérer les scientifiques comme des êtres de peu d'exigence, qui conféreraient à la première trouvaille venue le prestigieux statut de paradigme.
Thomas Kuhn attire notre attention sur le fait que, en optique par exemple, avant Newton aucun paradigme ne s'était dégagé des recherches pourtant nombreuses et fournies concernant la nature de la lumière.
Lorsque Newton lance dans le champ de l'optique : « la lumière est constituée de corpuscules matériels », il ne met pas tout le monde d'accord, pour au moins quatre raisons :
- cette affirmation se trouve être en contradiction plus ou moins complète avec toutes les hypothèses en présence,
- l'hypothèse de Newton ne répond pas à toutes les questions que pose le corps scientifique à cette époque, concernant la nature de la lumière,
- certaines des hypothèses concurrentes restent même plus performantes, sur des points particuliers,
- les scientifiques détestent la nouveauté
L'étude des documents d'époque, faite par Kuhn, révèle ce détail gommé par les manuels : l'hypothèse de Newton rencontra tout d'abord une vive résistance de la part de ses confrères physiciens (« ils sont souvent intolérants envers (les théories) qu’inventent les autres » écrit Kuhn). Il reste que, jusqu'alors, aucune des Ecoles en présence n'offrait une assertion qui soit assez large et assez féconde pour que les opticiens, dans leur ensemble, abandonnent leurs bribes de théories et fondent le champ de leurs recherches sur une assertion unique.
Large et fécond : voilà deux clefs pour le succès d'un paradigme local.
Un paradigme local ne résout pas les questions posées par les scientifiques avant lui. Vous avez entendu que Kuhn attire notre attention sur ceci qu’il n'est presque jamais en tous points plus performant que le paradigme local précédent. Mais il offre, et cela se vérifie à chaque fois, des perspectives de recherches larges, nombreuses, fécondes, en déplaçant le champ de la recherche... A partir de quoi, peu à peu, le corps scientifique se met tout uniment au travail et construit un nouvel épisode de la science normale.
Un nouveau paradigme local, donc, ouvre toujours sur le futur et ne fait jamais grand cas du passé. En d’autres termes, il ouvre un nouveau présent pour une discipline scientifique.
Toutes ces remarques nous conduisent à repérer une chose importante : le rôle de la science normale ne consiste pas à mettre à l'épreuve le paradigme choisi, comme l'idée naïve que nous avons de la science nous le fait pourtant croire. Son rôle consiste plutôt à démontrer de toutes les manières possibles la validité et la pertinence du paradigme, tout en approfondissant et en enrichissant à l'infini ses implications... mais seulement ses implications :
« Parmi les gens qui ne sont pas vraiment des spécialistes d'une science adulte, bien peu réalisent quel travail de nettoyage il reste à faire après l'établissement d'un paradigme(...). (les opérations de nettoyage) constituent ce que j'appelle ici la science normale qui, lorsqu'on l'examine de près, soit historiquement, soit dans le cadre du laboratoire contemporain, semble être une tentative pour forcer la nature à se couler dans la boite préformée et inflexible que fournit le paradigme. La science normale n’a jamais pour but de mettre en lumière des phénomènes d’un genre nouveau ; ceux qui ne cadrent pas avec la boîte passent même souvent inaperçus. Les scientifiques n’ont pas non plus pour but, normalement, d’inventer de nouvelles théories, et ils sont souvent intolérants envers celles qu’inventent les autres. Au contraire, la recherche en sciences normales est dirigée vers l’articulation des phénomènes et théories que le paradigme fournit déjà. »
« les domaines explorés par la science normale sont (...) minuscules », ajoute Kuhn ; nous savons tous qu'un biologiste passera volontiers quinze ans de sa vie sur la perméabilité de telle cellule et que, durant ces quinze années, il pourra ne penser à rien d'autre ! Nous savons aussi qu’un chercheur en psychologie cognitive pourra passer quinze ans de sa vie à observer des enfant de 5 ans en train de tracer des ronds, pour établir de façon certaine que « l’enfant moyen » commence le rond par la gauche et non par la droite. C'est précisément cette manière qu'a la science de s'attacher à un détail, comme si rien d'autre n'avait d'importance qui lui confère la précision dans l'étude que nous lui connaissons.
Mais c’est aussi ce qui lui donne parfois ces côté dérisoires au regard des urgences civilisationnelles et au regard des nécessités pratiques.
Science normale, énigme et anomalie.
Un problème de recherche normale ne vise donc pas à révolutionner la science dont il est l'objet mais, au contraire, à définir des voies nouvelles pour démontrer ce que prévoit le paradigme !
Un problème de recherche normale vise donc à définir, puis à résoudre des énigmes, d'ordre instrumental, conceptuel, mathématique... Et, souvenez-vous : le critère d'une bonne énigme n'est pas qu'elle soit susceptible de bouleverser le monde, c'est avant tout qu'elle ait une solution dans le cadre du paradigme.
Les questions qui n'ont pas de solution dans le cadre du paradigme sont abandonnées comme non avenues ou mal posées : ce ne sont pas des énigmes, mais des anomalies et les anomalies ne passionnent jamais les membres du corps scientifique concerné, car elles sont régulièrement sources d'ennuis avec les pairs. Pour s'en convaincre, il suffit de se reporter aux articles scientifiques, ainsi qu'aux articles de presse, contemporains des premières hypothèses de Newton, de Einstein ou, plus proche de nous, le scandale de la mémoire de l’eau ! Ce domaine n'est plus celui de l'énigme, qui excite tout scientifique normal, mais celui de l'anomalie, qui fait peur à tout scientifique normal.
Une anomalie est un problème qui ne trouve pas de solution dans le cadre du paradigme en vigueur.
Les révolutions scientifiques.
Kuhn souligne donc que la science normale, dans son fonctionnement normal, manifeste un talent certain à éviter les nouveautés ; il arrive cependant que, grâce à sa tradition de rigueur et d'opiniâtreté, certaines nouveautés ne lui échappe pas indéfiniment.
En effet, si durant six mois ou cinq ans une manipulation échoue mille fois, pour aboutir mille fois à un résultat paradoxal, le processus qui s’engage est le suivant :
- On soupçonne d’abord un biais d’expérimentation : une exploration s'engage donc avec l'opiniâtreté coutumière pour faire disparaître le biais supposé et faire rentrer la manipulation dans le cadre du paradigme ;
- Lorsqu’on est obligé d’éliminer l’hypothèse du biais, on tente de réajuster la théorie dans le respect du paradigme, de façon que le phénomène anormal se transforme en phénomène attendu.
- Si, malgré tout, ce phénomène se refuse à confirmer le paradigme, le scientifique normal moyen laisse tomber la manip. Il sait qu’elle ne lui apportera que des ennuis avec les collègues et nuira à sa carrière. Souvenez-vous que Kuhn a décrit les habitudes de laboratoire comme ne pouvant qu'amener au sein de la science normale de puissantes résistances au changement ; un tel univers de certitudes sait se faire extrêmement lourd et aussi très menaçant pour ceux qui s’écartent du troupeau.
Mais, pour peu que le chercheur se montre suffisamment courageux et curieux, il arrive que tout, soudain, s'accélère : la science entre en révolution, le paradigme vacille sur son socle. Voici ce qu’en dit Val Fitch, prix Nobel de physique :
« Ce fut, d'abord, une sacrée décharge d'adrénaline, puis un pénible travail de vérification. Durant six mois, nous avons cherché par tous les moyens à faire disparaître cet effet. Mais rien à faire. La violation de CP était la seule cause possible. »
Changement de paradigme local et renversement perceptif.
Pourquoi « une sacrée décharge d'adrénaline » ?: c’est qu’un changement de paradigme local, pour les individus concernés, ne les contraint pas seulement à un changement d’idée, il les contraint à redessiner leur univers perceptif, il les contraint à renverser leurs univers de perceptions.
La notion de renversement perceptif est importante, car elle situe les processus en cause, dans le registre de la cognition et de l’émotion et non pas dans le registre du seul discours de la science. Ce qui se passe pour les individus concernés, c’est à la fois une redéfinition de leur vérité et un remodelage de leur univers perceptif.
Situer cette opération au niveau de la cognition et de l’émotion permet au psychologue de comprendre mieux la puissance de nos convictions et la violence dont nous sommes régulièrement capables pour les promouvoir ou les sauvegarder : ostracisme, sectarisme, dérision ne nous font en général pas peur, lorsqu’il s’agit de préserver ce que le psychologue est alors contraint de considérer comme une partie composante de l’individu. En fait, le psychologue, le philosophe et l’épistémologue ont ici matière à repenser les rapports existant entre savoir, croyance, vérité et identité-appartenance.
Par exemple, en psychologie, le paradigme behaviouriste de Watson, le paradigme de l'inconscient freudien et le paradigme communicationnel de palo-Alto s’opposent radicalement. Le behaviouriste voit l’humain comme une machine binaire fonctionnant sur le mode « stimulus-réponse », le freudien voit un système intrapsychique construit autour du refoulement et de la libido et le systémicien voit des jeux d’interactions circulaires au sein d’un système et entre des systèmes. Trois paradigmes radicalement différents, dont il faut remarquer qu’ils se concurrencent sur le même terrain dans une même époque, ce qui, dirait Kühn, est le signe d’un univers paradigmatique particulièrement faible.
Un exemple, à présent, qui nous aidera à bien saisir l’efficacité avec laquelle un paradigme local impose les limites de la « bonne vérité » à laquelle les chercheurs d’une époque doivent se soumettre.
Avant le XVI° siècle et Copernic, le paradigme de l'astronomie était celui-ci depuis près de 3000 ans : la Terre est le centre de l'univers, la Terre est fixe. Ainsi, en astronomie il n'y a donc plus eu de révolution scientifique à proprement parler, entre l'Antiquité et le XVI° siècle. La Terre est le centre de l'univers, la Terre est fixe a donc été un paradigme extrêmement stable, qui a donné du grain à moudre en quantité suffisante à 20 siècles de scientifiques normaux.
Ce que les gens voyaient, quand ils regardaient le ciel, c’est un soleil qui tourne autour d’une terre fixe (nous disons d’ailleurs toujours, « le soleil se lève / le soleil se couche » comme si c’était le soleil qui bougeait autour de la terre et non l’inverse… : nous sommes donc toujours de fait géocentristes !)
Et pourtant, les occasions de bousculer le paradigme, et même de le remplacer, n’ont pas manqué de se présenter, et même très rapidement, au cours de ces deux millénaires :
- Philolaos, astronome pythagoricien (450-400 ; Ecole ionienne) élabore une théorie, dans laquelle la terre fait en vingt quatre heures un cercle autour du feu central (qui n'est pas le Soleil, mais derrière le Soleil).
- Héraclide (388-315 ; école d'Athène), pour expliquer le mouvement des étoiles, fait tourner la Terre sur elle-même. Il fait aussi tourner Venus autour du Soleil.
- Aristarque (290 ; école d'Alexandrie), non seulement fait tourner la Terre sur elle-même, mais il lui fait suivre une orbite circulaire autour du Soleil, lequel devient le centre de tous les mouvements.
Il est assez remarquable que ces trois théories successives et très précoces, qu’à l’heure actuelle il nous est facile de considérer comme géniales, n'obtinrent aucun succès dans le corps scientifique en place. Elles n’avaient qu’un défaut mais un défaut majeur : elles apportaient plus d’anomalies que d’énigmes, elles compliquaient les problèmes au lieu de les simplifier. Le paradigme en vigueur était encore trop fécond, trop loin de l'épuisement.
A partir de ce paradigme géocentrique dont nous n'hésitons pas, aujourd'hui, à prétendre qu'il constitue une erreur grossière (mais n’oubliez pas que dans quelques années nous dirons la même chose du big bang), la science astronomique, bien stable sur ses bases, n’en a pas moins accumulé pendant 20 siècles des inventions et des découvertes dignes d’intérêt :
- Hypparque (160-120) fonde la trigonométrie ;
- Erastosthene (273-192) met au point une méthode de mesure du rayon terrestre : deux cent cinquante mille stades, soit un chiffre de très peu inférieur au nôtre ;
- Aristarque (290) calcule la distance de la Terre à la Lune. Il démontre, en outre, que le diamètre de la Lune est égal au tiers du diamètre terrestre et que sa distance est de soixante rayons terrestres.
Les soubresauts de l'histoire font que la tradition scientifique grecque passe vers le Moyen-Orient et que ces travaux se perpétuent et se développent grâce aux savants arabes. Avec la Renaissance, en Espagne d’abord, grâce à la coexistence entre monde arabe et monde chrétien en particulier à Cordoue, puis en Italie et enfin en France, les travaux des scientifiques grecs, romains, arabes sortent des oubliettes, dans un grand remue-ménage. Et dès le début du XV° siècle, l'astronomie entame la crise qui aboutira à une révolution scientifique retentissante.
A Copernic (1475-1543) revient le mérite d'avoir rédigé le livre qui a fait exploser le paradigme antique : De revolutionibus orbium caelestium. Il y expose le nouveau paradigme qu’il n’a évidemment pas construit seul : le Soleil (helios) est le centre du monde, et le monde céleste se meut selon un jeu de mouvements héliocentriques.
Paradigme et réalité.
Vous avez pu vérifier à travers tous ces exemples que si un paradigme local permet effectivement à un corps scientifique de soutenir une représentation du monde, il ne lui permet jamais, je dis bien jamais, d'appréhender la réalité du monde naturel.
Car, entre nous et le monde naturel, il y a la représentation, ou plus exactement la modélisation, c'est à dire l'acte sensoriel puis intellectuel qui consiste à découper et à décrire un objet ou un phénomène vu comme naturel, en construire un modèle, à partir de moyens qui varient parfois considérablement d'une époque à une autre, d'une culture à une autre, d'un individu à un autre.
Le physicien Bernard d’Espagnat écrit :
« la science ne peut fournir une vraie description discursive de la réalité indépendante. (...) Elle n’atteint pas vraiment le réel tel qu’il est. » (d’E. p. 259)
Lire :
Bernard d’Espagnat, Penser la science, 1990, Dunod, Paris.
C'est une couleuvre difficile à digérer que celle qui nous contraint à admettre que nous n'avons aucun accès direct à la réalité du monde naturel.
Je suppose que votre culture vous impose de connaître le film « Matrix ». Ce film est une assez bonne métaphore de notre rapport au monde réel : comme les héros de Matrix nous en subissons toutes les contraintes, sans jamais savoir ce que nous vivons et ce que nous rêvons ; Francisco Varela le résume ainsi : « le monde réel intervient uniquement là où nos constructions échouent », c'est-à-dire quand nos théories et nos expérimentations se heurtent à un écueil.
Tant que nous ne nous heurtons à rien qui nous paraisse suffisamment significatif, nous pouvons nous accrocher à la vérité telle que nous la construisons avec nos paradigmes, c'est-à-dire au domaine de la croyance et de la foi.
Certes, la chute d’un paradigme semble tout particulièrement liée au fait qu’il a peu à peu conduit les chercheurs concernés à se heurter à des écueils de plus en plus impossibles à minimiser ; il n’en reste pas moins que l'adhésion à un nouveau paradigme local, pour un groupe scientifique, n'est rien d'autre qu'un acte de foi car, au moment de cette adhésion, les constructions que les scientifiques appellent preuves de sa véracité sont inexistantes ! Depuis qu'existe la science, le paradigme en vigueur a toujours constitué la vérité hors de laquelle il n'est point de science.
Admettons qu'il existe peu de chances pour que, soudain, aujourd’hui, pour nous tout spécialement, les paradigmes locaux soient à présent confondus avec la réalité !
Paradigme et théorie.
Il faut insister sur un autre point : un paradigme ne se confond jamais avec une théorie. Dans trois ans, nous verrons, en étudiant les travaux de Gregory Bateson, qu’il est fondamental de ne jamais confondre deux niveaux logiques : paradigme et théorie appartiennent à deux niveaux logiques différents. Un paradigme a toujours pour qualité de susciter, de subsumer, de digérer successivement ou simultanément, un nombre plus ou moins grand de théories, jamais l’inverse.
Le travail du scientifique.
Alors, en quoi, précisément, consiste le travail d’un scientifique, puisque nous avons vu qu’il est incapable d’apporter la preuve de quoi que ce soit et puisque nous avons vu que les plus grands scientifiques sont d’accord pour admettre qu’ils ne décrivent pas la réalité du monde, mais qu’ils construisent des mondes ?
Humberto Maturana clarifie cette question de façon magistrale. Par la même occasion, il vous donne quelques indications qui vous seront précieuses dans la construction de votre mémoire de M1 qui est, comme vous le savez, un mémoire de recherche.
Maturana nous montre très simplement les conditions auxquelles une expérimentation doit se soumettre pour qu’elle ait une valeur scientifique. Il définit quatre classes d’opérations dont la seule condition est, impérativement, qu’elles doivent être cohérentes entre elles.
Voici l’exemple qu’il nous donne :
1. distinguer : « un jour d’été pluvieux, dans certaines conditions, on voit tomber la foudre ». L’observateur (celle ou celui qui voit la foudre) spécifie les opérations de distinction nécessaires pour observer le phénomène qu’il veut expliquer : « été pluvieux », « certaines conditions ». il spécifie les contextes significatifs du phénomène observé. Beaucoup de psychologues ne se sentent pas du tout gênés de dire : « j’observe la psychose », sans le moindre souci des contextes.
2. Construire une hypothèse générale : « quand les nuages déplacés par le vent se chargent, par friction, d’électricité statique, une différence de tension entre les nuages, ou entre les nuages et la terre, s’établit. Quand cette différence de tension devient suffisamment importante, une étincelle jaillit ». L’observateur pose une proposition d’explication. L’hypothèse est un modèle isomorphe à la description 1. l’observateur émet l’hypothèse que son système explicatif -si on le laisse opérer pour lui-même- produira le phénomène qu’il veut expliquer (à chaque fois que les nuages…).
3. construire une hypothèse opérationnelle : « un conducteur placé entre les nuages permet de charger un condensateur. Quand le condensateur est chargé, il devrait allumer une ampoule ». L’observateur construit une « machine » isomorphe au phénomène décrit en 2 et qui en produira les effets si on le laisse opérer.
4. démontrer : « on fait s’envoler un cerf-volant avec un fil relié à un condensateur, lui-même relié à une ampoule. Si l’ampoule s’allume l’explication est démontrée pour la communauté scientifique concernée. » l’observateur effectue des opérations techniques pour établir s’il peut observer le phénomène opérationnalisé en 3. S’il l’observe, l’hypothèse générale émise en 2 est démontrée : on dit que le système expérimental est isomorphe au phénomène observé en 1.
Vous avez remarqué que la seule chose exigible dans cette opération est la cohérence entre 1, 2, 3 et 4. il n’y a aucun besoin de la notion d’objectivité.
C’est ce que Maturana veut démontrer ici : l’objectivité n’est pas du tout une nécessité dans la procédure scientifique. L’observateur est toujours au centre de la procédure :
« quand nous déclarons qu’une explication est scientifique, nous ne disons rien d’autre que ceci : des observateurs sont arrivés à un accord qui satisfait à des conditions (1, 2, 3 et 4) et qui a quelque chose à voir avec l’expérience humaine ». (Maturana H. in Segal Lynn (1990) Le rêve de la réalité, Seuil, Paris. P.90)
science et progrès :
En outre, Kuhn attire notre attention sur le caractère illusoire de la notion de progrès ; la science progresse, mais elle progresse vers nulle part, et l’humain d’aujourd’hui n’est en aucune façon plus intelligent que les égyptiens d’il y a 3500 ans ou les grecs d’il y a 2500 ans.
Jacob von Uexküll, dans sa Théorie de la signification, traite lui aussi du progrès, celui de l’univers humain :
« Ce progrès, tant vanté, qui est censé conduire les êtres vivants d’une origine imparfaite à un état de perfection toujours plus élevé, n’est-il pas au fond une vue de petits bourgeois qui spéculent sur le bénéfice croissant d’une bonne affaire? » (p. 143)
Lire absolument :
Von Uexküll (1956), Mondes animaux et mondes humains, Gonthier, paris.
Au dessus des paradigmes locaux, un paradigme maître.
Avec Kuhn, nous avons défini un type de paradigme, que nous appellerons « paradigme local » dans la mesure où chaque science et parfois même chaque spécialité au sein d’une même science construit le sien, qui n’est pertinent que pour elle.
Nous avons vu que, en psychologie, par exemple :
la psychologie cognitive possède le sien : le cerveau traite de l’information,
la psychosociologie le sien : les situations sociales déterminent les comportements de l’individu,
la psychologie sociale expérimentale le sien : l’homme traite de l’information
la psychologie clinique comprend plusieurs univers paradigmatiques :
- inconscient, libido et refoulement pour la psychanalyse,
- traitement de l’information pour la thérapie cognitive,
- conditionnement pour la thérapie comportementale.
Au dessus de ces paradigmes locaux, propres à la psychologie contemporaine, nous trouvons une autre sorte de paradigme, que nous appellerons « paradigme maître », qui les unit au sein d’une même structure logique de niveau supérieur (une métalogique).
Les paradigmes maîtres sont des structures logiques générales par lesquelles se définissent la bonne manière de penser et la bonne manière d’agir au sein d’une époque et d’une société donnée, c'est-à-dire la bonne manière de dessiner le monde et d’agir sur lui.
Vous aurez remarqué que, dans ma petite liste des sous-disciplines en psychologie, je n’ai pas fait figurer la systémique ; c’est pour une raison précise : elle n’obéit pas au même paradigme maître que ces sous-disciplines.
La psychologie encore majoritaire aujourd’hui obéit au paradigme maître cartésien ou paradigme mécaniste, alors que la psychologie systémique obéit au paradigme maître de la complexité.
Un paradigme-maître : le paradigme cartésien.
Au sein d’une époque et d’une société donnée, le paradigme maître en vigueur détermine la bonne façon de penser et d’agir du scientifique, biologiste, physicien, chimiste, etc., du praticien, médecin et psychologue, ainsi que celle de monsieur et madame Tout-le-monde.
A l’heure actuelle, nous avons une chance extraordinaire : deux paradigmes maîtres se disputent le terrain de la science, c'est-à-dire aussi le terrain de la bonne manière de dessiner, de penser le monde et d’agir sur lui : le paradigme cartésien et le paradigme de la complexité.
Puisqu’il est toujours plus facile de faire référence à l’histoire qu’à l’actualité (paradoxalement, le passé est toujours plus visible que le présent, parce que dessiné de façon plus stable), voyons comment le paradigme-maître cartésien s’est construit.
Il semble, en fait, qu’une conjonction soit toujours nécessaire, entre une nouvelle logique forte et une nouvelle science forte (une science-reine). Il y a donc eu Descartes (1596-1650) pour la logique, mais il y a eu Newton (1642-1727) pour la science-reine.
L'épistémologue se pose nécessairement une question à propos de cette époque : que s’est-il passé, qui a permis à la physique de décoller soudain et avec une telle puissance avec Newton ? Newton arrive et tout bascule : les Ecoles existantes sont balayées, et la plupart des scientifiques adoptent peu à peu les thèses newtoniennes.
Nous avons vu que Newton a offert un nouveau paradigme local en optique avec sa théorie de la lumière, mais il ne s'est pas du tout borné à cela. Il a surtout inventé la théorie de la gravitation universelle. Ce faisant, il a offert au corps scientifique de son époque un fantastique cadeau : il lui a offert un appareil d'interprétation de l'univers naturel non plus construit, comme les précédents appareils d'interprétation de l'univers naturel, sur des bases mythiques ou religieuses, mais construit sur des bases mathématiques. Newton offre au corps scientifique une grande cosmogonie (une grande histoire sur le monde) comme seules jusqu’alors les religions en avaient inventées (le livre de la genèse par exemple).
Ce que Newton provoque, avec la théorie de la gravitation universelle, est l’avènement triomphal d’une « science reine » qui va structurer le discours de toute la science, pas seulement la physique, je dis bien toute la science, durant plus de deux cent ans.
Avec trois paramètres, Masse / Espace / Temps, Newton explique et maîtrise l’univers naturel : il calcule l’accélération d’un corps (E = F/M), sa force (F = ME/T2) et son énergie (D = ME2/T2) et, avec ça, il prédit et explique le mouvement des planètes, il transforme l’univers en une immense mécanique, soudain compréhensible et prévisible dans ses mouvements. C’est pourquoi on appelle indifféremment ce paradigme maître : paradigme cartésien ou paradigme mécaniste.
Newton offre à la postérité un nouveau langage pour décrire le monde, un langage structuré par trois items fondamentaux, que le paradigme-maître naissant extrait de l’univers de la métaphysique et redéfinit à sa façon :
l’ordre : avant Newton il n’y avait d’ordre que divin et donc impénétrable ; avec Newton, l’ordre devient mécanique, intelligible et prévisible.
la quantité : avant Newton, Descartes et quelques autres, l’univers était d’abord vu comme une somme de qualités ; le quantitatif relevait plus du dénombrement que de la mathématique. Avec Descartes, Newton, Leibniz, l’ordre du monde est un ordre quantifiable, mathématisé.
le déterminisme : avant Newton et Descartes, le monde était certes déterminé, mais par l’ordre divin, impénétrable et imprévisible ; avec Newton cette détermination est redéfinie comme étant le résultat d’un jeu parfaitement mathématisable entre masse, espace et temps.
Cette nouvelle description du monde impose ceci : toute influence d’un élément de l’univers sur un autre élément de l’univers ne peut être que matérielle et mesurable en termes de masse, d’espace et de temps. Nous assistons à la naissance de la science moderne, science matérialiste par excellence.
Souvenez-vous, au début de ce grand chapitre, je vous ai cité une petite réflexion de Gregory Bateson :
« Le soi-disant spécialiste en sciences du comportement, qui ignore tout de la structure fondamentale de la science et de 3000 ans de réflexion philosophique et humaniste sur l’homme - qui ne peut définir, par exemple, ni ce qu’est l’entropie ni ce qu’est un sacrement - ferait mieux de se tenir tranquille, au lieu d’ajouter sa contribution à la jungle actuelle des hypothèses bâclées. » G. Bateson 1977 : Vers une écologie de l’esprit 1, p. 17)
Eh bien voilà une des structures fondamentales de la science moderne :
- l’univers est matériel,
- il se décrit en termes de masse, d’espace et de temps,
- ainsi qu’en termes d’ordre, de quantité et de déterminisme.
C’est ainsi que toute discipline se trouvant dans l’impossibilité de se glisser dans le nouveau carcan imposé par la physique mécanique se trouvait ipso facto exclue du champ de la science.
C’est pour cette raison que la psychologie a commencé et continue désespérément à tenter de se glisser dans ce carcan, à singer la science physique, malgré le fait qu’il ne lui convienne pas du tout, persistant à se montrer aveugle sur ceci, qu’« il est aujourd’hui tout à fait évident que la grande majorité des concepts de la psychologie, de la psychiatrie, de l’anthropologie, de la sociologie et de l’économie, sont complètement détachés du réseau des fondamentaux scientifiques. » (Bateson G. Vers une écologie de l’esprit 1, p. 16)
De fait, s’il reste difficile de décrire un symptôme, un comportement, une interaction humaine, en termes de masse, d’espace, de temps, la psychologie dite scientifique s’est hâtée de les décrire en termes d’ordre, de quantité et de déterminisme : les statistiques produisent un « homme moyen » qui ne ressemble à aucun homme réel et le modèle comportementaliste décrit l’humain comme une machine programmée et reprogrammable (stimulus-réponse). Ils se montrent incapables d’intégrer la limite logique suivante : « si le générique est à notre portée, le spécifique nous échappe toujours » (Bateson).
Un psychologue ne doit jamais oublier cette petite phrase, qui doit le guider tout au long de sa vie professionnelle.
Pourquoi ? Parce que les scientifiques et les médias martèlent quotidiennement que « toute chose est, en principe, prévisible et contrôlable, et si, dans l’état actuel de nos connaissances, un événement ou un processus ne l’est pas encore, un surcroît de connaissances, ou plus précisément de savoir-faire, nous permettra de prédire et de contrôler les variables qui nous échappent. » (47)
Nous verrons en M1 que cette vision est fausse à la fois dans son principe et dans les détails. Retenons aujourd’hui que vous êtes et vous serez toujours dans l’incapacité de prédire ce que je vais faire dans la seconde qui suit, et je serai toujours dans l’incapacité de prédire ce que vous allez faire dans la seconde qui suit.
En revanche, je peux prédire avec un bon degré de probabilité qu’un grand nombre d’entre vous passera l’examen en fin de semestre et vous pouvez prédire de même qu’un sujet d’examen vous sera donné.
Nous pouvons prédire ce qui relève d’une classe d’individus, le générique, jamais ce qui relève d’un individu, le spécifique.
« il y a un abîme entre ce qui s’énonce sur un individu particulier et ce qui s’énonce sur une classe (d’individus). Ces énoncés ressortissent à des types logiques différents, et la prévision des uns à partir des autres est toujours précaire.
L’énoncé « le liquide bout » (la classe des molécules, le générique) ne relève pas du même type logique que l’énoncé « cette molécule s’échappera la première » (une molécule spécifique). (Bateson G. Vers une écologie de l’esprit 1 p.49)
Il est donc fondamental, tout particulièrement en psychologie, de ne jamais assimiler l’individu à la classe d’individus à laquelle il appartient. Le comportement général d’une classe d’individus est prévisible, celui d’un des individus de cette classe ne l’est jamais.
Mais continuons avec Newton et Descartes. Quels sont les fondements logiques qui encadrent et soutiennent le tripode masse, espace, temps tel que Newton l’a offert à la science physique ?
Le Lagarde et Michard n’a plus cours dans les lycées, et les étudiants en psychologie, comme les enseignants du secondaire toutes disciplines confondues ont tous, ou peu s'en faut, oublié les quatre préceptes des règles de la méthode. Cela n’a rien d’étonnant : cette amnésie, ajoutée au fait que, sans le savoir, la plupart d’entre nous continuent à calquer fidèlement leurs raisonnements sur les dits préceptes, constitue, à mes yeux, une démonstration de ce que, pour nous, le corpus cartésien est toujours le paradigme maître.
Descartes l’énonçait ainsi :
« Le premier était de ne recevoir jamais aucune chose pour vraie que je ne la connusse évidemment être telle (...).
« Le second, de diviser chacune des difficultés que j'examinerais en autant de parcelles qu'il se pourrait et qu'il serait requis pour les mieux résoudre.
« Le troisième, de conduire par ordre mes pensées en commençant par les objets les plus simples et les plus aisés à connaître, pour monter peu à peu comme par degrés jusques à la connaissance des plus composés (...).
« Et le dernier, de faire partout des dénombrements si entiers et des revues si générales, que je fusse assuré de ne rien omettre. »
Descartes ajoutait, en outre, quelques lignes plus loin :
« Ces longues chaînes de raison, toutes simples et faciles, dont les géomètres ont coutume de se servir pour parvenir à leurs plus difficiles démonstrations, m'avaient donné occasion de m'imaginer que toutes les choses qui peuvent tomber sous la connaissance des hommes s'ensuivent en même façon, et que pourvu seulement qu'on s'abstienne d'en recevoir aucune pour vraie qui ne le soit, et qu'on garde toujours l'ordre qu'il faut pour les déduire les unes des autres, il n'y en peut avoir de si éloignées auxquelles enfin on ne parvienne, ni de si cachées qu'on ne découvre.»
Quatre préceptes aisément résumés en quatre concepts :
évidence,
réductionnisme,
causalisme linéaire,
exhaustivité.
Le cinquième point du texte renforce la notion de linéarité en proposant un modèle chaîné de la causalité : nous dirons donc « causalisme linéaire chaîné ».
Quelle est la définition de chacun de ces concepts ?
Evidence : Descartes écrivait : « Encore que tout ce que nos sens ont jamais expérimenté dans le vrai monde semblât manifestement contraire à ce qui est contenu dans ces règles, la raison qui me les a enseignées me semble si forte... (que même si l’expérience les récusait) je préfèrerais des règles tirées de ma certitude à des témoignages qui ne sont obtenus que par mes sens . » : voilà pour lui ce qui définit l’évidence ! Nos sens, c'est-à-dire nos perceptions, ne nous renseignent pas sur le monde : seules nos logiques et nos théories nous permettent d’y accéder. J’ajouterais : c'est-à-dire de le construire… en effet, sur ce point Descartes frôle la posture constructiviste !
exhaustivité : localiser, repérer, décrire par le détail, la totalité des composants d’un objet sans en omettre un seul ; ne rater aucune des relations de cause à effet dans la longue chaîne de causalité linéaire par laquelle on peut décrire un phénomène, faute de quoi la conclusion serait fausse.
Causalité linéaire : Tout événement, tout phénomène a une cause et une seule, dont il est l’effet. La cause et l’effet sont intimement liés.
Nous avons donc A cause de B son effet. A précède nécessairement B.
A et B sont liés de telle façon que si A, la cause, disparaît, B, l’effet disparaît lui aussi.
Les articulateurs logiques sont : « si…, alors… » et « … parce que … »
Si A, alors B, ou B parce que A
Supprimons A, et B disparaît
Dit comme ça, ça peut vous paraître simpliste, mais ce fut une extraordinaire manière d’organiser le monde en le simplifiant. Lier deux phénomènes de cette façon étroite et rigoureuse, c’est ce Newton a fait en inventant la physique moderne, c’est aussi ce que Pasteur a fait plus tard en inventant le modèle de l’agent infectieux sur lequel la médecine moderne s’est entièrement modélisée.
Causalité linéaire chaînée : elle consiste à établir un enchaînement causal entre deux événements éloignés. A est la cause de B qui est la cause de C qui est la cause de D qui est la cause de E : à travers la chaîne B, C, D, nous avons A qui est la cause de E.
Réductionnisme : il s’agit au moyen d’instrument pratique (un scalpel pour la dissection, un tournevis pour le démontage), ou au moyen de l’objet théorique qu’est la procédure analytique, de dissocier un objet composé en autant de parties que possible, et d’étudier séparément chacune de ces parties. Ensuite, affirmer que je connais cet objet puisque j'en connais chacune des parties. Le réductionnisme est devenu une doctrine très puissante.
(Aujourd’hui on distingue entre réductionnisme doctrinal et réductionnisme méthodologique.)
Nous sommes face à l'outil logique de la science moderne , laquelle, concluant un mariage avec la technique , a trouvé, entre le 18ième et le 19ième siècle, un épanouissement inouï jusqu'alors.
Descartes fournit l'outil logique qui contraindra l’homme à sortir de la contemplation de l’univers naturel et à en entamer la conquête. Il écrira :
« je pense qu’on peut parvenir à une philosophie pratique par laquelle nous pourrions nous rendre comme maîtres et possesseurs de la nature. »
Si l’on considère l’hégémonie effective du réductionnisme devenu doctrine, qui n’est autre que la mise en oeuvre du quatrième précepte, et celle de la causalité linéaire chaînée, application du troisième principe, dans tous les domaines de la science moderne, il semble bien que cette arme logique, en un peu plus d'un siècle, soit devenue notre façon de penser et même notre façon de « voir » l’univers et d’agir sur lui. Plus encore, être cartésien, pour un intellectuel occidental, et plus encore pour un Français, est aussi naturel que respirer et ne pose pas plus de question que la respiration. Au contraire, ce qui pose question est de parvenir à en parler, à en repérer les éléments discrets et, plus encore, à imaginer une autre forme de pensée. Nous avons ici affaire - cette remarque n’est pas triviale - à un point de conjonction ou d’inclusion mutuelle, entre l’univers logique et l’univers de la cognition, entre paradigme maître et psychologie génétique.
Bateson écrit :
« les règles de l’univers que nous croyons connaître sont enfouies au profond de nos processus de perception. L’épistémologie, à ce niveau naturel de son histoire, est essentiellement inconsciente, et par là même difficile à changer. » (Bateson G., la nature et la pensée, p. 42)
L’histoire de la logique et l’histoire des sciences montrent que, durant plus de deux siècles, le paradigme logique cartésien règne en maître absolu, sur la pensée scientifique d'abord, puis, par le processus de diffusion le plus habituel (ouvrages scientifiques à manuels universitaires à manuels scolaires), sur la pensée commune dans sa globalité. Insistons sur le fait que le colossal et foudroyant succès rencontré, dans l'Europe entière, par l'outil logique cartésien, n'est pas usurpé : le Cartésianisme a constitué une formidable révolution scientifique, qui a emporté dans son élan toutes les disciplines, toutes les habitudes de pensée, y compris la morale et la religion.
Ce que Descartes fournit d’abord à la science, puis à la culture occidentale dans son ensemble, ce ne sont pas des hypothèses dans telle ou telle spécialité, c'est spécifiquement une manière de penser le monde et d’agir sur lui, une manière de raisonner et d’agir : il a fourni un paradigme-maître pour toute une époque.
Nous venons de voir l’effet positif et le potentiel créatif que montre un paradigme-maître sur son époque.
Voyons à présent l'effet restrictif d'un paradigme-maître sur la pensée de son époque. Pour l’illustrer, il suffit de repérer les inventions restées longtemps sans suite, malgré leur caractère génial :
- souvenez-vous d’Aristarque, qui a inventé le paradigme héliocentrique 18 siècles avant Copernic ;
- il y a eu aussi Ibn an-Nafis qui a inventé la circulation sanguine au 13ième siècle (petite circulation) ; il faudra attendre le 17ième siècle et William Harvey, lequel, toutefois, a dû surmonter des oppositions véhémentes à l’époque.
- et Frascator : au 16ième siècle il invente le concept d’agent infectant vivant. Il faudra attendre le 19ième siècle, Pasteur et quelques autres pour le réinventer : il serait naïf de croire que Frascator a simplement manqué d'un microscope pour imposer le raisonnement selon lequel les épidémies et les maladies vénériennes se propageaient par l'intermédiaire de micro-organismes infectants (« seminaria contagionum » écrivait-il) capables de se reproduire et pour lesquels il cherchait des thérapeutiques pouvant détruire les germes (des antibiotiques). Il a décrit le processus de contagion comme se produisant de trois manières : le contact direct (syphilis), le contact indirect (lèpre) et l’air ambiant (peste et tuberculose). Ce qui a manqué, en fait, c'est un outil logique commun, des lunettes mentales qu'il puisse distribuer à ses contemporains, afin qu'ils « voient » l'infiniment petit sur le modèle du vivant et qu'ils le voient dans une chaîne logique liant le tout petit au très grand, l’invisible au visible. La Chine antique qui, elle, disposait d'un outil logique extrêmement élaboré combinant étroitement, dans le registre du vivant, l'infiniment grand et l'infiniment petit , a maîtrisé la notion de propagation infectante dès le deuxième siècle avant notre ère (règne de Qin Shi Huangdi), c'est-à-dire près de 2000 ans avant l’occident.
Ainsi, l'histoire des sciences et l'histoire des idées montrent que les humains, à toutes les époques, ont été capables d'intuitions extrêmement pertinentes mais aussi que, à chaque fois qu'elles sont survenues dans des époques où ces intuitions n’étaient pas adaptées au paradigme régnant, elles tombaient dans l'oubli ; une autre solution était choisie, conforme au paradigme local de la science concernée et conforme aux logiques imposées par le paradigme maître du moment. (Elle n’était pas des énigmes mais des anomalies)
Un paradigme maître couvre donc tous les champs : scientifique, disciplinaire, cognitif. Il définit ainsi un univers logique pour la pensée et pour l'action.
L’épistémologie contemporaine retient deux substantifs, pour désigner le paradigme maître que nous venons de décrire : cartésianisme et mécanicisme (on dira : un cartésien et un mécaniste).
Mais tous les paradigmes-maîtres touchent un jour à leur fin, confrontés que nous sommes de plus en plus aux limites des champs qu’ils autorisent : le mécanicisme, Bateson nous le rappelle, n’offre aucune porte vers ce que le vivant a de spécifique et moins encore vers un modèle de l’esprit.
Il n’est donc pas étonnant qu’apparaisse un jour un mouvement de pensée, qui délaisse le champ ouvert par Newton et Descartes pour inventer une science de l’esprit.
Le Plus amusant est que les intentions initiales des chercheurs concernés n’étaient pas de sortir de la mécanique pour aller vers une théorie de l’esprit affranchie de la physique classique, mais de mécaniser l’esprit : de produire des machines imitant le fonctionnement de l’esprit humain.
Les effets de leurs travaux, nous le verrons, ont singulièrement dépassé leurs intentions, puisqu’ils ont ouvert à un nouveau paradigme-maître, le paradigme de la complexité.
Pour clore ce chapitre, citons la recommandation qu'adressaient trois de nos plus brillants biologistes, les professeurs François Gros, François Jacob et Pierre Royer, au président de la République, en 1979, dans le rapport qui leur avait été demandé, intitulé Sciences de la vie et société :
« Si l'approche réductionniste n'a cessé de remporter des succès, elle n'en a pas moins des limites. Dans de nombreux cas elle est nécessaire mais non suffisante. Selon toute vraisemblance, on verra dans les années à venir se développer en parallèle une autre approche, plus intégrative et organismique dans l'étude des grands problèmes de la biologie. » (Documentation française, 1979).
Il va sans dire que cet « organismisme » n’a rien de commun avec l’organicisme au sens mécaniste du terme ! Les trois auteurs font clairement référence au paradigme systémiste, au « paradigme de la complexité ».
Il faudra attendre 23 longues années pour que ces remarques atteignent le CNRS !
« S'attacher à la complexité (…) c'est reconnaître que la modélisation se construit comme un point de vue pris sur le réel, à partir duquel un travail de mise en ordre, partiel et continuellement remaniable, peut être mis en œuvre. »
(Projet d'établissement 2002 du CNRS)
En 2009, 7 ans après la parution de ce projet d’établissement, les choses n’ont guère avancé sur ce plan : le fractionnement des disciplines et des sous-disciplines bat son plein dans les laboratoires hexagonaux.
« bien penser, bien agir » d’une époque à l’autre.
Un petit tableau va nous faciliter les choses :
Paradigme cartésien. Penser cartésien : | Paradigme de la complexité. Penser complexe : |
- Causalité linéaire chaîné |
- Causalités linéaire circulaire et discontinue - interactionnisme - Modélisation - évidence - Systémisme - constructivisme |
Causalité linéaire : Nous avons A cause de B effet.
A et B sont liés de telle façon que si A, la cause, disparaît, B, l’effet disparaît lui aussi.
Si A, alors B, ou B parce que A
Supprimons A, et B disparaît
Causalités circulaire et discontinue : A cause B qui cause C qui cause A, c’est aussi ce qu’on appelle une rétroaction ou un feedback.
Ou encore, un processus s’engage à partir d’une logique de type X, puis des contraintes internes ou externes le conduisent à enchaîner selon une logique de type Y, et ainsi de suite : René Thom l’a formalisé dans sa théorie des catastrophes (Médaille Fields 1972).
Réductionnisme : Le réductionnisme est devenu une doctrine scientifique : le bon chercheur travaille sur un objet aussi petit que possible et la bonne recherche est celle qui sait analyser ses objets, c'est-à-dire diviser les objets composés en unités aussi petites que possibles : la molécule, la particule. Il cultive le sentiment que lorsqu’il a dûment analysé l’ensemble des ces parties, il « connaît » l’objet composé concerné.
Interactionnisme : Ludwig von Bertalanffy a clairement mis en évidence que la mise en œuvre d’une action réductionniste et de la procédure analytique dépendent de deux conditions incontournables :
- « La première, c'est que les interactions entre les parties soient inexistantes, ou assez faibles pour être négligées dans certaines recherches. Sous cette condition seulement les parties pourront être «isolées», véritablement, logiquement et mathématiquement, puis ensuite «réunies».
- « La seconde condition, c'est que les relations qui décrivent le comportement des parties soient linéaires : dans ce cas seulement on aura la condition de sommativité, c'est-à-dire que l'équation qui décrit le comportement de l'ensemble a la même forme que celles qui décrivent le comportement des parties ; les processus partiels peuvent être superposés pour obtenir le processus total . »
Ces deux conditions de possibilité de la procédure analytique, sont actuellement considérées comme triviales par les logiciens. Le corps scientifique lui-même les admet, ainsi que les divers corps disciplinaires. Il n’en reste pas moins que beaucoup d’entre eux, et tout particulièrement en psychologie, continuent de n'en tenir que très peu de compte. Dans les domaines dits de pointe, où les nouvelles procédures complètent ou remplacent la procédure réductionniste, il est amusant de constater que les chercheurs concernés ignorent souvent qu'ils ont opéré une révolution scientifique au niveau de leur paradigme maître : ils s’affirment toujours volontiers « cartésiens », terme passé dans le langage commun en tant que synonyme de « rigoureux ». Ils sont plus au fait de leurs paradigmes locaux et savent parfaitement, par exemple, quand ils font référence au paradigme newtonien et quand ils font référence au paradigme quantique.
Pour peu que nous considérions attentivement les deux conditions de possibilité énoncées par von Bertalanffy, il nous apparaît rapidement qu'une quantité considérable de phénomènes complexes ne nous sont actuellement accessibles que terriblement déformés par la lorgnette de la procédure analytique. Voyons ce que Alexis Carrel, prix Nobel de médecine et de physiologie, inventeur de la suture vasculaire fine, de la culture d'organe, de la greffe d'organe et du coeur artificiel, en disait , dès 1935 :
« (L'étude de l'homme) utilise plusieurs sciences distinctes. Chacune de ces sciences aboutit naturellement à une conception différente de son objet. Chacune n'abstrait de lui que ce que la nature de sa technique lui permet d'atteindre. Et la somme de toutes ces abstractions est moins riche que le fait concret. Il reste un résidu trop important pour être négligé. (...) l'homme que connaissent les spécialistes n'est donc pas l'homme concret, l'homme réel. Il n'est qu'un schéma, composé lui-même des schémas construits par les techniques de chaque science. »
Il signalait clairement que la condition de sommativité n'existe pas lorsque l'objet d'étude est l'humain. L'équation qui décrit le comportement de l’homme n'a pas la même forme que celle qui décrit la structure histologique du muscle cardiaque, le PH. sanguin, l'activité électrique du cerveau, ou la reproduction cellulaire. Et toutes ces équations mises bout à bout ne peuvent prétendre décrire la femme et l'homme, vivant, pensant, choisissant, décidant, aimant, parlant, rêvant, tombant malade, souffrant, guérissant ou mourant... à savoir ce que nous sommes tous et que le psychologue rencontre chaque jour dans son travail.
Le regard mécaniciste, servi par le réductionnisme, ne peut décrire l'humain que comme une série de mécanismes -respiratoire, circulatoire, hormonal, nerveux, musculaire, digestif, reproducteur, etc.- à propos desquels la question des interactions est exclue, faute des moyens conceptuels qui permettraient d'en poser, puis d'en explorer l'hypothèse.
Décrire les sytèmes de liens, dans leur diversité et leur complexité, lui est impossible car, pour le paradigme mécaniste, ces systèmes de liens ne sont pas représentables : c’est le modèle qui manque.
Pour saisir la complexité des articulations entre ces diverses fonctions, il faudra attendre l'avènement d'un paradigme organismique (souvenez-vous de ce qu’écrivaient les trois Pr. Au Pdt de la République) un paradigme interactionniste : celui, par exemple, qui présida à l’avènement de la neuro-endocrinologie, avec le Pr. Guilmain, puis de la neuro-immuno-endocrinologie et enfin de la neuro-psycho-immuno-endocrinologie.
Exhaustivité : Descartes recommandait aussi de n’oublier aucun détail, aucun maillon causal dans les enchaînement de raisonnement que le chercheur est conduit à opérer. Faute de quoi, la conclusion, le résultat de la recherche serait immanquablement faux.
Modélisation : Un objet complexe n’est pas démontable, sauf à perdre ses caractéristiques complexes, il faut donc l’observer dans son ensemble et, pour cela, il faudra inventer un autre mode d’observation que le réductionnisme : c’est la modélisation, c'est-à-dire la création d’un modèle de l’objet observé.
Un modèle est donc une représentation graphique, discursive ou mathématique faite d’un objet complexe :
- par exemple la modélisation du système océan-atmosphère, qui permet de saisir des régularités interactionnelles entre courants marins et courants atmosphériques, ainsi que les redondances et les variations climatiques qui leur sont liées, etc.
- ou la modélisation d’un système familial, qui permet de saisir les régularités interactionnelles entre divers sous-ensembles au sein de la famille, ainsi que les redondances et les variations émotionnelles qui leur sont liées, etc.
Ce qu’on appelle un objet complexe est en fait, dans tous les cas, un jeu de processus plus ou moins étroitement reliés. Si vous démontez un processus, c'est-à-dire si vous dissociez les parties composantes de ce processus, il disparaît.
Si, pour observer les modes d’interaction entre des cellules vivantes, vous les dissociez, ces modes d’interaction disparaissent.
Mais quand un processus tel que le flux sanguin, par exemple, a été correctement modélisé, il peut ensuite servir de modèle pour la plupart des processus de flux : flux automobile, flux pluvial, égouts, filtres chaotiques, foule, etc. (cf modèle de la percolation, PG De Gennes ).
Evidence : Descartes recommandait de se fier à l’évidence du rationnel, à savoir plutôt à ce que l’esprit conçoit qu’à ce que nos sens perçoivent. Il y aurait donc selon lui une réalité objective fondée sur la logique, sur la puissance de l’esprit, supérieure à la réalité des formes perçues. Le principe de causalité, par exemple, est donné par une évidence rationnelle et logique et non par une perception.
Evidence : Les systémiciens ne pensent pas très différemment, à ceci près qu’ils mettent en évidence que notre esprit, pas plus que nos sens, n’a accès à une quelconque réalité prédonnée : l’esprit comme les sens, construit des mondes et des univers de signification. Cette conception trouve son développement dans le modèle constructiviste qui souligne que, n’ayant pas d’accès direct au monde extérieur, nous en sommes réduits, que nous le voulions ou non, à construire des modèles du monde.
La seule différence, donc, est que le contenu des évidences des uns n’est pas le même que celui des autres…
Mécanicisme : Le paradigme newtono-cartésien est aussi appelé mécaniciste, parce qu’il décrit l’univers comme une grande mécanique : on parle de la mécanique céleste, Descartes décrira les animaux comme des machines. Durant deux siècles et jusqu’à nos jours, l’ensemble des occidentaux décrit l’ensemble du monde en termes mécaniques : les poumons sont une soufflerie, le cœur une pompe, le système digestif une tuyauterie, etc.
Systémisme : Le paradigme systémiste, aussi appelé paradigme de la complexité, décrit l’univers comme un ensemble de systèmes, c'est-à-dire des ensembles d’éléments reliés entre eux par des jeux d’interactions stables : l’écologie a été la première discipline à décrire les mondes de la nature en termes d’écosystèmes ; en sociologie Egar Morin développe en trois forts volumes l’évolution de la pensée humaine vers le paradigme de la complexité et Nicklas Luhmann décrit les sociétés en termes de systèmes sociaux. Ludwig von Bertalanffy, puis Walter Cannon, tous deux physiologistes, ont décrit les organismes vivants en termes de systèmes vivants, Gregory Bateson et à sa suite tous les thérapeutes systémiciens décrivent les couples, les familles, les équipes, les institutions, comme des systèmes, les économistes, avec Stafford Beer, Herbert Simon (Prix Nobel) et Jean-Louis Le Moigne produisent une théorie des organisations fondées sur la modélisation de la complexité.
Lire :
Von Bertalanffy L. (1973) Théorie générale des systèmes, Dunod, Paris
Morin E. (1990) Introduction à la pensée complexe, ESF éditeur. Paris.
Luhmann N. (1995) Social systems, Stanford university Press, Stanford California.
Simon H. A. (1991) Siences des systèmes sciences de l’artificiel, Dunod, Paris
Le Moigne J-L (1990) La modélisation des systèmes complexes, Dunod, Paris
Objectivisme : la science cartésienne est fondée sur l’idée que l’observation, pourvu qu’elle respecte les règles de la rigueur (réduction, causalité linéaire chaînée, exhaustivité, évidence) peut être objective, ce qui signifie qu’il est possible de considérer l’observateur lui-même comme une donnée négligeable, puisque tous les observateurs respectant les mêmes règles doivent voir exactement la même chose.
L’objectivisme est le socle de la science classique et, vous-mêmes, quand vous voulez en imposer, commencez votre phrase avec un : « en toute objectivité… », c'est-à-dire que vous proposez une assertion dont vous ne seriez pas le sujet !
L’univers de l’objectivité est en effet un univers sans sujet.
Constructivisme : l’objectivisme a pris un premier très sérieux coup, non pas comme on l’aurait attendu de la part des sciences humaines qui auraient pu aligner de solides arguments, mais de la part de la physique quantique.
Face à un univers au sein duquel l’objectivisme ne pouvaient plus tenir dans la mesure où ils sont contraints d’intégrer l’observateur comme donnée de l’expérience, les physiciens quantiques déclarent l’objectivité : « de mode faible », et substituent au « réalisme » l’« opérationnalisme ».
Laissons la parole à von Foerster :
« (…) la science fut contrainte de prendre en compte un « observateur » (c’est-à-dire au moins un sujet). Voici deux exemples de ce changement dans la pensée scientifique :
1) les observations ne sont pas absolues mais relatives au point de vue de l’observateur, c’est-à-dire son système de coordonnées (théorie de la relativité d’Einstein) ;
2) les observations influent sur ce qui est observé de telle façon que l’observateur ne peut plus espérer faire de prédictions (autrement dit, son incertitude est absolue - c’est le principe d’incertitude l’Heisenberg). (..)
Nous avons maintenant besoin d’une description de «celui qui décrit», ou, en d’autres termes, nous avons besoin d’une théorie de l’observateur. Dans la mesure où seuls les organismes vivants sont capables d’observer, il semble que cette tâche incombe au biologiste. Mais le biologiste est aussi un être vivant; ce qui signifie que, dans sa théorie, il doit non seulement tenir compte de lui-même, mais aussi du fait même qu’il écrit cette théorie. C’est un élément tout à fait nouveau dans le discours scientifique, car le point de vue traditionnel, qui sépare l’observateur de ses observations, évitait soigneusement toute référence à ce discours . »
Au fil des prochaines années, nous développerons plus avant le modèle constructiviste, peu à peu adopté par l’ensemble des scientifiques de pointe et dont l’importance en psychologie clinique est fondamentale.
Paradigmes et comportements.
Pour terminer, quelques remarques supplémentaires sur une implication majeure du modèle cartésien sur les comportements et attitudes qui y sont valorisés comme étant les bonnes manières pour la pensée et pour l’action.
La première remarque nous est proposée par le grand neurobiologiste Henri Laborit, qui met en évidence que ce modèle est puissamment instigateur en matière de domination : le modèle mécaniste enseigne à tous les niveaux qu’il est bon de dominer... dominer la matière, dominer la nature, dominer l’homme.
Henri Laborit a très bien mis en évidence une des façons dont l’école produit et pérennise une logique de violence sociale extrême. Elle le fait à travers la valorisation systématique des fonctions « cerveau gauche » chez les enfants. Henri Laborit montre que cette valorisation produit et reproduit une logique de domination, qui impose l’idée que, pour un humain intelligent, il n’existe qu’une seule activité enviable dans la vie : dominer.
Je le cite :
« Quand on pense que depuis des millénaires, mais surtout depuis l’avènement de la société industrielle, l’enseignement a récompensé, favorisé l’activité du cerveau gauche, celui de l’analyse séquentielle, du langage et des mathématiques dans leur aspect le moins créateur, tout en châtrant celle du cerveau droit, celui des synthèses globalisantes, de l’occupation de l’espace, capable de créer quelque chose de neuf, (créer) une structure nouvelle à partir de la poussière des faits analysés par le précédent et que cette attitude fut toujours motivée par la recherche de la dominance, cela peut nous laisser sceptiques sur l’évolution prochaine de ce qu’on appelle l’enseignement. »
Il pense, et je pense avec lui, que la « bonne façon de penser », cartésienne est génératrice de violence.
Pierre-Gilles de Gennes, prix Nobel de physique, le même jour au même endroit, c'est-à-dire devant l’assemblée des inspecteurs généraux de l’éducation nationale, ajoutait ceci :
« (la sélection par les mathématiques) (c'est-à-dire la sélection par le cerveau gauche) est déplorable parce qu’elle détruit d’autres capacités aussi importantes, qui sont par exemple, les capacités d’observation. (...) Les gens de nos jours savent très mal regarder. (...) cette sélection est l’asphyxie du don d’observation mais elle limite aussi beaucoup le côté expérimentation . »
Il pense et je pense avec lui, que la « bonne façon de penser » cartésienne, promue par l’école, est génératrice d’une forme rétrécie d’intelligence...
Cette valorisation des fonctionnalités cerveau gauche, ce rétrécissement des fonctionnalités cerveau droit, orientent malheureusement l’apprentissage social dans un même sens : celui de la domination pour la domination et de la haine de la différence.
De ce point de vue, je suis malheureusement contraint d’admettre que les psychologues sont bien des enfants « cerveau gauche » : la plupart d’entre eux, à chaque fois qu’ils sont mis en difficulté par la complexité des situations auxquelles ils ont le plus souvent affaire, confondent systématiquement « savoir » et « pouvoir » : prisonniers d’un seul modèle, ils en sont les agents aveugles, ignorent le doute et campent sur des certitudes. Ainsi, ils n’hésitent jamais à utiliser l’interprétation sauvage pour reprendre le contrôle des gens et des situations qui leur échappent.
J’espère que ce cours constituera un antidote à cette confusion coupable…
Lire:
Code de déontologie des psychologues
À trouver sur le site web de la FFPP
(Fédération Française de Psychologie et des Psychologues)