Professional Documents
Culture Documents
ANNALES
MÉDICO-PSYCHOLOGIQUES
MÉMOIRES ORIGINAUX
RÉSUMÉ : L'auteur montre la nécessité d'une étude critique et logique des sciences pour
mieux comprendre l'apparition et le développement des multiples aspects de la
psychiatrie. Il introduit le travail d'un philosophe des sciences, le Pr L.-J. Delpech, qui
évoque la rupture entre la pensée classique et la pensée scientifique contemporaine dans
un texte sur « Les nouvelles épistémologies ».
P. Marchais rappelle que certaines d'entre elles ont tenu un rôle important dans ses
propres travaux. Elles lui ont permis de renouveler son mode d'observation et de fonder
une nouvelle méthode efficace pour sa connaissance et son activité clinique quotidienne.
Ainsi peut-il témoigner des effets théoriques et pratiques de l'épistémologie en
psychiatrie.
SUMMARY: The author shows it is necessary to perform a critical and logical study of
the sciences in order to understand better the origin and the development of the multiple
aspects of psychiatry. He introduces the work of a philosopher of science, Pr L.-J Delpech
who points out the rupture between classical and contemporary scientific thinking in an
article on “The new epistemologies”.
P. Marchais recalls that some of them have played an important role in his own work.
They have permitted him to renew his mode of observation and to found a new effective
method for organizing his daily clinical activities. Thus he can testify the theoretical and
practical effects of epistemology in psychiatry.
Par suite, pour mieux en saisir le sens général, il convient de la situer au sein de la
connaissance générale et d'en extraire les dynamiques internes, comme le clinicien peut en
découvrir dans les phénomènes inconscients du sujet, ou dans la pathologie du patient.
Ceci est le rôle de l'épistémologue qui se livre à une étude logique et critique des
connaissances.
Certes, une telle réflexion est apparemment éloignée des préoccupations immédiates du
clinicien. Cependant contrairement aux apparences, il ne s’agit pas de vaines
considérations théoriques qui seraient dénuées d'efficacité pratique. En se penchant sur les
courants de pensée qui servent de référence l'observateur, le psychiatre peut mieux
comprendre le sens et les limites de ses propres connaissances. Par suite, il peut s’ouvrir
davantage à de nouveaux modes de pensée plus enrichissants pour l'étude et le traitement
des troubles mentaux.
Il est donc important pour le psychiatre de s'intéresser à elle, car il doit non pas opposer le
pragmatisme médical au langage abstrait de l'épistémologue, mais se rendre compte que
sa pratique quotidienne peut être enrichie par les conséquences rétro- et antéroactives de
la réflexion épistémologique. En ce sens, un aperçu sur ce domaine peut lui être utile.
Le clinicien pourra aimai trouver des éléments pour mieux comprendre les conditions
d'apparition et les caractéristiques de la pensée scientifique contemporaine et, par suite,
l'éclosion des nouveaux courants de connaissance présents et à venir en psychiatrie. Ainsi
pourra-t-il mieux saisir les raisons des révolutions passées et futures dans l'histoire de
cette discipline, et mieux en préciser les dynamiques. En outre, en se penchant sur ces
nouvelles théories, il pourra voir lui-même si certaines d'entre elles l'incitent à modifier
ses propres méthodes d'observation ou à remanier celles qui lui sont proposées. Ainsi loin
d'être enfermé dans un monde purement théorique, il pourra au contraire se rendre compte
des possibilités de libération conceptuelle qui lui sont offertes par l'épistémologie.
Pour affiner l'observation clinique des troubles mentaux nous avions donc été tenté de
recourir à un support conceptuel de référence cohérent, d'ordre logique et mathématique
relativement élémentaire, capable de prendre valeur de réalité face aux phénomènes
observés. De ce fait, ce système de référence pouvait devenir particulièrement efficace en
psychiatrie, tout en étant entièrement nouveau. Théoriquement, un tel choix permettait
d'obtenir la meilleure cohérence possible dans les démarches de connaissance, devenant
par-là susceptible de faire évoluer la psychiatrie vers un statut plus scientifique. Ainsi
avons-nous pu élaborer une nouvelle méthode d'observation que nous avons dénommée
systémale, en recourant à l'analyse comparative et différentielle des phénomènes de même
nature, aux notions d'invariant, de modèle opératoire, de rétroaction cybernétique, de
système, d'ensemble, de combinatoire, d'intégrale... De même, cette orientation nous a
conduit à utiliser l'aide technique de l'ordinateur, puisque cet ensemble de démarches
s'avère cohérent avec celles de l'informatique, et nous essayons actuellement d'affiner
l'étude clinique de la pathologie mentale par cette nouvelle méthode. La voie d'une
psychiatrie assistée par ordinateur est ainsi ouverte dans une prospective non plus
seulement quantitative, comme les recherches qui utilisent les notions classiques, mais
aussi qualitative plus spécifique à la nature des phénomènes observés en notre discipline.
Nous ne reviendrons pas sur ce renouvellement de l'observation que nous avons exposé
dans plusieurs ouvrages, notamment dans « Les Processus psychopathologiques de
l'adulte » (Privat, 1981), et « Les Mouvances psychopathologiques » (Eres, 1983), travail
que nous sommes en train de développer pour l'étude des interrelations du trouble mental
et du milieu, afin de faciliter les recherches en psychiatrie sociale et transculturelle.
Sans même entrer dans le détail de cette démarche d'ensemble ou des raisons qui l'ont
motivée et qui la justifient, il est possible de se contenter d'en utiliser les effets, c'est-à-
dire des modèles, pour se rendre compte des nouvelles possibilités qu'elle offre face à la
clinique.
Cependant, notre option n'est qu'une réalisation possible parmi d'autres. Loin d'être unique
et fixée une fois pour toutes, elle peut toujours s'enrichir à d'autres notions
épistémologiques, être complétée, voire renouvelée, comme nous le faisons pour nos
recherches transculturelles actuelles.
Ainsi est-il possible de se rendre compte de l'ouverture conceptuelle et des effets pratiques
que l'épistémologie peut apporter en psychiatrie. Puisse notre discipline s'ouvrir à ces
nouveaux modes de réflexion pour participer à l'évolution de la pensée scientifique
contemporaine et ne pas rester à l'écart des apports incontestés et constructifs que celle-ci
nous réserve pour le plus grand bien des malades mentaux.
Le Dr. Pierre Marchais est neuropsychiatre. Ancien chef de service à l'Hôpital Foch de
Suresnes, Secrétaire général et Président de la Société Médico-Psychologique, membre
de l'Académie européenne interdisciplinaire des sciences, il a participé à la fondation de
nouvelles institutions psychiatriques en milieu hospitalier général, pénitentiaire, et de
recherche. Adepte d'études interdisciplinaires sur le fonctionnement psychique, il est
l'auteur de travaux couronnés par l'Académie de Médecine et l'Académie française, et
d'une longue suite d'ouvrages dont plusieurs ont été traduits à l'étranger.
Livres :
HISTORIQUE
L'épistémologie est la science de la connaissance. C'est une discipline qui d'une certaine
manière est récente puisqu'elle date de la deuxième moitié du XVIIIe siècle avec l'ouvre
du philosophe allemand Kant (1724-1804). Mais comme toutes les grandes disciplines
elle a une préhistoire, c'est-à-dire que sans prendre conscience de sa réalité autonome, les
problèmes qu'elle implique ont été abordés depuis des temps reculés de la tradition
philosophique : ainsi les sophistes grecs dans la haute antiquité ont été les premiers à
mettre en question la valeur de la connaissance quelques siècles avant Jésus-Christ, et
curieusement ce phénomène n'a pas été spécifique à l'Occident mais il a été universel,
s'étendant en Inde et en Chine (cf. P. Masson-Oursel : Les sophistes, Revue de
métaphysique et morale, 1915). Cette crise que j'ai été amené à comparer à celle de 1968
dans une lettre à André Malraux, a été conjurée par Socrate et à sa suite la constitution
d'une philosophie consistante réalisée par son disciple Platon qui a su mettre en valeur,
sous le nom d'Idées, des invariants. Le platonisme devait continuer son itinéraire jusqu'à
nos jours où il aboutit d'une part à la psychanalyse (j'entends par là une philosophie qui
met l'accent sur l'inconscient et l'affectivité) du suisse Jung et à certaines conceptions du
philosophe anglais B. Russell. Kant a donc posé le premier en toute conscience le
problème épistémologique, mais curieusement si on lit sa logique on y trouve les
catégories aristotéliciennes telles qu'elles sont décrites dans le livre des Analytiques
d'Aristote dont l'étude, disait Joseph de Maistre, assure à ceux qui l'avait pénétrée une
supériorité d'esprit indiscutable. Pourtant à travers le XIXe siècle cet ordre séculaire allait
être bouleversé par des critiques concentriques venant de diverses directions. Il y a
d'abord les logiciens anglais Boole, Morgan et Jevons qui, reprenant certaines idées de
Leibniz, idées exposées par Couturat dans sa logique de Leibniz (1902) montrèrent que la
logique dépassait de loin le discours soumis aux principes d'identité de contradiction et de
raison suffisante, et ne pouvait se rattacher d'une certaine manière à l'algèbre (cf. L. Liard:
Les logiciens anglais contemporains 1878). Une seconde attaque contre l'épistémologie
classique est venue du domaine préférentiel philosophique et l'œuvre du penseur allemand
Dilthey avec sa Critique des sciences humaines (1885) qui partant du modèle
autobiographique et biographique a mis en lumière la distinction entre l’explication
causale et la compréhension intuitive : c'est ce que le penseur allemand Jaspers a mis en
œuvre dans son célèbre Traité de Psychopathologie Générale (1912). Cette distinction
qu'on retrouve chez Bergson est un des points fondamentaux de la spécificité des sciences
humaines dont Gusdorf dans une œuvre prodigieuse de plus de dix volumes raconte
l'épopée. Une troisième attaque contre l'épistémologie classique dont le modèle est le
couple Newton-Kant, a été réalisée par le mathématicien Henri Poincaré. Celui-ci
examinant l'œuvre du physicien anglais J.-C. Maxwell, un des créateurs de la physique
moderne par sa découverte de l'équivalence entre la lumière et l'électricité, est arrivé après
un examen de son œuvre un peu déroutante à cette découverte que si un modèle
mathématique est satisfaisant, on peut démontrer que n modèles le sont, et on choisira le
plus commode. Si nous résumons le cheminement mis en lumière, il faut dire qu'en dehors
d'une raison ferme et unilatérale nous devons utiliser des logiques nouvelles. Je ne peux
continuer cet itinéraire : je me contenterai de dire que s’est développé une double
exigence d'unité et de multiplicité dans les sciences cosmologiques dont le type est la
physique, et dans les sciences humaines. La physique a pris des formes diverses et une
tentative d'unification entre la physique des quanta et celle de la relativité a été tentée par
J.-L. Destouches qui en 1943 a publié un traité de physique où il multipliait les points de
vue, puis en 1954 il parlait de physico-logique une discipline nouvelle qui étudiait La
structure et la combinaison des théories physiques. Dans le domaine des sciences
humaines Palmade avait soutenu en 1953 une thèse sur l'unité des sciences humaines qui
prenait comme modèle la psychotechnie. Cette thèse, malheureusement publiée en 1961,
n’eut à peu près aucune résonnance. Il n’en demeure pas moins que le problème
épistémologique a pris peu à peu une grande importance. La dissociation entre la logique
et le réel a disparu de plus en plus. Aussi pour faire comprendre le problème, nous allons
examiner une série d'épistémologies contemporaines qui à l’heure actuelle ont permis à
ceux qui les utilisaient d’obtenir des résultats de plus en plus efficaces.
***
ÉPISTÉMOLOGIES CONTEMPORAINES
1. — LES PSYCHO-LOGIQUES
Il s'agit de disciplines qui étudient particulièrement les rapports des théories physiques et
de la logique. Elles furent créées par Gonseth, Bachelard et Destouches.
G. Bachelard, professeur la Faculté de Dijon, puis la Sorbonne, est mort en 1961. Il s’est
efforcé durant sa carrière de créer une psychologie de l'esprit scientifique avec pour
corollaire une méthodologie en vue d'établir les fondements d'une conscience de la
rationalité qui soit à la mesure de notre temps. La Science incite l'homme à saisir les
choses et les phénomènes dans des cadres rigides (précis) mais avec un contrepoint dans
l'imaginaire. La réflexion philosophie est dans un premier moment constructive. La
science est une suite infinie de rectifications. La connaissance est approchante, elle est
toujours approchée (c'est le titre de sa thèse de 1929), jamais définitive. Le sujet
connaissant est en interaction incessante avec le phénomène scientifique. Jamais la
science n'est donnée d'un coup, elle suit un long processus d'élaboration. Il y a d'abord une
connaissance première des faits scientifiques, celle-ci est fournie par les premiers
enregistrements des sens. Mais aussitôt, la raison loin d'entériner ces faits les travaille
pour en dégager le sens au service de la science. Or rien dans la raison humaine n'est
immobile. Au contact de l’objet scientifique la raison se forme et se déforme (Le Nouvel
esprit scientifique). Aucun principe, aucune catégorie, aucune structure que la raison se
donne n'est définitif. Tout change en fonction du stade de développement de la science. La
science fonde aujourd'hui un type d'intelligibilité qui est dialectique. Connaître ne peut
éveiller « qu'un seul désir : connaître davantage, connaître mieux ». Le nouvel esprit
scientifique est l'ébauche de cette attitude mais au préalable il faut exclure deux types
d'explications métaphysiques. La pensée de Bachelard après avoir établi que la science est
dialectique va adopter un ton critique. D'une part la science ne se borne pas à
l'enregistrement des faits bruts. Il n'y a de science que de ce qui est caché. Il est nécessaire
pour l'esprit scientifique d'établir des normes et des cadres qui favorisent l'explication de
ces données immédiates des sens et de la perception. D'autre pat, la raison humaine ne
peut se constituer une fois pour toutes. La science est un effort sans cesse rectifié pour
s'adapter aux phénomènes. Les domaines nouveaux conquis par la science contemporaine
ne peuvent plus faire l'objet d'une mise en pratique des cadres aristotéliciens et kantiens.
L'intelligibilité aristotélicienne était valable pour la science macroscopique. Aujourd'hui
elle est un obstacle à la connaissance, car elle ne permet pas l'analyse du domaine de
l'infiniment petit. Au contact des phénomènes l'homme transforme son esprit, sa raison
s'affine. « Le nouvel esprit scientifique montre sous sa forme la plus simple, la plus pure,
le jeu dialectique de la raison. Les moyens de la connaissance s'approfondissent sans
cesse. Il faut donc que la connaissance soit admise comme un fait dialectique. Le savoir
est une remise en question incessante ». Rien n'est jamais acquis, c'est donc par un
échange sans fin et dans les deux sens, entre l'objet et le sujet, que s'accroît la
connaissance. Le monde connu n'est pas une donnée brute, le monde est un monde
construit en fonction d'un type d'intelligibilité. Pour Bachelard la science dans son histoire
et dans ses processus de construction est l'affirmation de la dialectique. Une connaissance
n'est qu'un moment sur l'axe du devenir. Au niveau de l'activité scientifique, l'homme est
donc l'être de la dialectique. Il est dans le monde, mais il cherche à le réduire l'expression
qu'il en a. Son rapport au monde est dialectique, c'est-à-dire que le monde est sa
représentation. Celle-ci est consécutive à sa façon de le penser, autrement dit aux moyens
mis en œuvre, c'est-à-dire les cadres de l'intelligibilité. Nous venons de saisir cette
dialectique dans son caractère général : l'homme est présent au monde. Ce monde lui est
donné, il pense ce monde et réagit sur lui, ce rapport met en évidence une interaction entre
l'homme et le monde. Le modèle de l'explication du monde n'est jamais définitif. Une
théorie est sans cesse rectifiée, transformée; vérifiée au contact de l'expérience. Elle va du
réel à l'abstrait, puis revient vers le réel : la technique ou quelque forme que ce soit de
vérification. Ce retour au réel rend nécessaire un nouveau type d'intelligibilité. La raison
humaine se transforme ainsi indéfiniment au contact de l'expérience. Une rectification
objective est immédiatement une rectification subjective. « Si l'objet m'instruit, il me
modifie. De l'objet comme principal profit, je réclame une modification spirituelle ».
Partant du concept mécanique de masse, Bachelard a mis en évidence une filiation de cinq
doctrines philosophiques nécessaires à l'éclairer. Mais comment progresser ? Il répond
ainsi : « Il nous semble qu'une psychologie de l'esprit scientifique devrait dessiner ce que
nous appellerons le profil épistémologique des diverses conceptualisations. C'est par un
tel profil mental qu'on pourrait mesurer l'action psychologique effective des diverses
philosophies dans l'œuvre de la connaissance ». On réalise alors un profil en portant en
abscisse les philosophies successives (réalisme, empirisme, rationalisme, etc.) et en
ordonnée une valeur qui mesure l'importance relative de nos convictions. Bachelard
insiste sur le fait qu'un profil épistémologique doit toujours être relatif à un concept
désigné, qu'il ne vaut que pour un esprit particulier qui s'examine à un stade particulier de
sa culture. « C'est cette double particularisation qui fait son intérêt » et Bachelard ajoute
en élargissant son point de vue : « C'est seulement après avoir recueilli l'album des profils
épistémologiques de toutes les notions de base qu'on pourra vraiment étudier l'efficacité
relative des diverses philosophies... Nous suggérerions volontiers une analyse
philosophique spectrale qui déterminerait avec précision comment les diverses
philosophies réagissent au niveau d'une connaissance objective particulière
Une partie importante de la physico-logique est constituée par la, recherche, des
conséquences de la conception prévisionnelle d'une théorie physique, c'est-à-dire de la
conception selon laquelle une théorie consiste au moins à calculer des prévisions. On peut
aussi construire une théorie générale des prévisions qui conduit déductivement des
résultats généraux précis, comme il y a deux types de théories physiques. Si on se place au
point de vue prévisionnel, les théories que l'on construit ne visent plus à décrire des
réalités intrinsèques mais seulement à relier d'une manière cohérente des résultats de
mesure pour pouvoir faire des prévisions.
La recherche opérationnelle.
Cependant les normes d'ordre moral, social, passionnel ou historique, en leur aspect
irrationnel, tout ce que les réactions humaines enfin comportent d'intuitif, échappent
nécessairement au modèle faute de pouvoir se traduire en chiffres.
Le contrôle de la valeur du modèle est assuré non seulement par la mise à l'épreuve
préalable des hypothèses de base et des solutions possibles (quand c'est convenable), mais
encore par la mise à l'épreuve du modèle et des solutions qu'il fournit. Ces vérifications se
font sous deux formes : l'essai de fonctionnement du phénomène et la comparaison
rétrospective de ce fonctionnement nouveau avec des éléments tirés de l'expérience du
passé. Dans ce second cas, l'intervention d'un philosophe de l'histoire est indispensable,
parce que les expériences du passé présentées à l'état brut perdent leur signification,
lorsqu'un facteur essentiel a changé notablement de grandeur. La comparaison ne peut
donc s'effectuer qu'à la faveur des méthodes comparatives de la philosophie de l'histoire.
Quoi qu'il en soit, pour chaque joueur une partie d'un jeu déterminé, échecs, poker ou
autre, consiste en une suite de coups joués à leur tour et dans les règles, la tricherie étant
supposée exclue. Les différents partenaires font, chacun par leurs coups respectifs,
évoluer une certaine situation définie par la règle elle-même, depuis une situation d'entrée
jusqu'à une situation finale qui provoque le règlement des comptes entre les joueurs. Cette
évolution est discontinue : les « coups » qui l'entraînent forment une suite discrète. Elle
est aléatoire : chaque coup est joué par un joueur mis d'ordinaire en présence d'une
pluralité de possibilités entre lesquelles le choix se trouve fixé, tantôt par un simple effet
du hasard matériel (distribution de cartes, tirage de dés, etc.), tantôt par une décision
méditée (échecs, jeu de la levée aux cartes, etc.).
Dans les jeux usuels les possibilités ouvertes à chaque coup sont en nombre fini. Il y
existe en outre quelques règles assurant, directement ou, non, le caractère fini de la suite
des coups susceptibles de constituer une partie du jeu. De telle sorte que le dénombrement
de toutes les parties possibles est lui-même fini.
Supposons un joueur raisonnant à l'avance sur un jeu auquel il se propose de jouer avec
l'intention de gagner le plus possible. En droit tout au moins, il peut se représenter le
système complet des situations dans lesquelles il est possible à un joueur de se trouver au
cours d'une partie quelconque. Il peut de même, pour chaque situation, se figurer la suite
complète des possibilités qu'elle ouvre. Il peut alors — relativement à chacun des
partenaires du jeu, ses adversaires aussi bien que lui-même — construire l'ensemble, lui
aussi fini, de tous les schémas d'enchaînement de décisions qu'il est possible d'attribuer à
un joueur faisant une partie. On appelle ces schémas des stratégies. Examinant le tableau
d'ensemble de ses possibilités stratégiques de ses partenaires, le joueur peut tirer certaines
conclusions sur l'avantage ou l'inconvénient qu'il y a à se prescrire telle ou telle stratégie,
étant supposé que de leur côté les partenaires sont capables de poursuivre, de leur point de
vue, des méditations tout aussi approfondies.
La théorie met en évidence les faits suivants. Tout d'abord dans les jeux à deux
partenaires, lorsque les situations faites aux joueurs par l'évolution de la partie comportent
la connaissance de tous les éléments du coup à jouer, il existe, pour l'un des joueurs, au
moins une stratégie infailliblement gagnante, ou sinon capable de faire partie nulle, quelle
que soit la stratégie que lui oppose son partenaire. Dans cette dernière hypothèse, le
partenaire peut lui aussi toujours faire partie nulle. Tel est le cas des échecs. Dans le cas
où les situations faites aux joueurs leur laissent ignorer une partie des éléments du coup —
ainsi en est-il ordinairement des jeux de cartes — il n'y a plus habituellement de stratégie
décisive quel que soit le comportement du partenaire. Mais il existe pour chaque joueur
des façons de varier ses stratégies au cours d'une suite de parties, qui rendent maximum
l'espérance mathématique de gain.
A première vue, on se demandera sans doute quel est l'intérêt de ces considérations fort
abstraites, et somme toute assez rarement applicables, fût-ce à la pratique concrète de nos
jeux. Car leur complexité est trop grande déjà pour qu'il nous soit possible, avec nos
moyens ordinaires, de faire l'étude complète de leurs virtualités stratégiques. L'importance
de la théorie des jeux vient cependant de ce qu'elle permet pour la première fois de
représenter distinctement la liaison entre une certaine finalité « économique », le gain, et
un schéma d'actions humaines coordonnées en fonction tant de certaines conditions
matérielles que d'autres initiatives humaines. Le jeu est ainsi une sorte d'économie ultra-
simplifiée, se définissant dans des univers finis et discrets, et c'est pour l'instant la seule
approximation de la réalité économique que nous puissions considérer comme
scientifiquement bien définie sur le plan théorique. Approximation à coup sûr très
élémentaire. Elle suffit cependant à constituer un pas en avant, très caractéristique, pour la
science des processus humains.
Ce jeu a été mis au point par Von Neumann lors des travaux qui ont fait suite à son
célèbre ouvrage sur la Théorie des Jeux et été réalisés pour le département de la Défense
des États-Unis. Il cherche à résumer dans des éléments les plus simples possibles l'aspect
d'une guerre moderne vers 1950 entre deux états ou deux coalitions. Il prend donc en
considération non plus tellement les armées et leur position stratégique sur un terrain, que
les aspects économiques et le potentiel industriel des deux partenaires.
On résume le potentiel agressif d'un pays par l'ensemble des éléments suivants qui
peuvent être présentés par des carrés de papier de couleur ou des pièces d'échecs :
— R correspond au potentiel constructif d'un pays,
— A correspond au potentiel de protection de ce pays (défense anti-aérienne,
fortifications, protection des populations industrielles, défense contre la propagande
adverse, contre-espionnage. etc.),
— F correspond à l'armée proprement dite, (potentiel militaire, corps d'armées, etc.),
— L correspond aux forces mobiles, c'est-à-dire essentiellement à l'aviation ou la
marine, susceptibles de déplacements extra-rapides et de réaliser des destructions sur le
potentiel de construction, sur les armées ou sur les communications,
— K, enfin, à l'ensemble des systèmes de communication, le terme de «
communication » couvrant ici aussi bien les communications matérielles (transports des
biens ou des personnes, des armées ou des objets d'un point à un autre, à l'exception de ce
qui concerne « L ») que les communications de messages ou les liaisons.
On estime que les deux pays ne sont susceptibles d'entrer en conflit que quand ils sont de
forces égales et que la politique ou la diplomatie ont peur rôle de retarder les actions
jusqu'à ce que ce moment soit venu. Il y a donc de part et d'autre les mêmes éléments en
présence : c'est le rôle de la préparation à la guerre que de prévoir l'égalité dans chaque
pays des potentiels militaires, industriels, de protection ou de communications.
Les mouvements des éléments représentent les actes élémentaires de la tactique, ils
peuvent aboutir à deux types de résultats, soit :
— réduire, c'est-à-dire détruire un élément adverse et par là l'éliminer du jeu, soit,
— produire, c'est-à-dire faire apparaître un élément qui n'existait pas.
Enfin, il est possible de protéger, c'est-à-dire sans réduire ni produire empêcher toute
action de l'ennemi.
L'étude des conditions de fonctionnement d'un pays industriel au cours des guerres,
fournit les équations suivantes :
2 F réduit 1 F ou 1 A,
2 L réduit 1 F ou 1 A ou 1 K ou 1 R,
3 L réduit 1 L,
3 R produit 1 L ou 1 R ou 1 K ou 1 A,
1 A protège 1 R ou l A ou l F ou 1 L ou 1 K.
Le jeu se termine théoriquement quand toutes les unités d'un jeu partenaire ont été
éliminées du jeu par l'autre ; on peut, par exemple, effectuer ce jeu en plaçant deux
équipes de chaque côté d'une table, chaque équipe représentant l'état-major, et en
disposant sur la table des pions ou des papiers de formes différentes pour exprimer leur
nature et des couleurs différentes pour exprimer leur appartenance, les éléments retirés du
jeu sont mis à part et comptés au fur et à mesure par un personnage observateur qui est
l'historien de la partie.
Ce jeu a été très abondamment pratiqué dans les milieux d'état-major et dans les instituts
de recherche stratégique dans les années comprises entre 1945 et 1955.
3. — LA STRUCTURE ABSOLUE.
Nous avons donc là, une double rotation. Mais, « verticalement », nous voyons
l'apparition de deux produits : vers le bas, en ampleur, nous avons l'accumulation des
outils dans mon corps, ces outils n'en étant que le prolongement ; vers le haut, en
intensité, nous avons l'unification du sens du monde. Autrement dit, plus j'accumule les
outils dans mon corps, plus j'acquiers d'expérience, plus le monde prend de sens pour moi.
Comme le dit Raymond Abellio, les cycles diachroniques horizontaux entraînent la
corrélation de l'ampleur de la constitution des outils dans mon corps et de l'intensité de la
donation de sens que je fais au monde. Au centre de la quadrature se trouve l'égo
transcendantal.
Nous ne nous trouvons donc plus en présence d'une dualité, ni même d'une quaternité,
mais d'un sénaire, et même d'un sénaire-septénaire si l'on tient compte de la position
centrale de l’ego. C'est là un « modèle » de l'ensemble dont nous parlions plus haut.
Toutefois, il est capital de noter qu'on ne saurait appliquer arbitrairement une telle
méthode. Il faut d'abord définir un champ pertinent d'application de la structure absolue.
Pour prendre un exemple, si la dualité homme-monde constitue un tel champ, il n'en est
nullement de même de la dualité constituée par un fragment de l'homme et un fragment du
monde : il est impossible de structurer un bras isolé et un rocher ; c'est là une pseudo-
structure morte.
Ensuite, une fois déterminé le champ, il importe de savoir en nommer les polarités. Dans
le champ de la perception, le sujet et l'objet vont se subdiviser en quatre polarités, puis en
six comme nous l'avons vu. C'est ainsi que dans le champ social, qui est pertinent, la
dualité de l'administration des choses et du gouvernement des hommes va fournir une
série de sénaires, ainsi d'ailleurs que, dans le champ scientifique qui lui est homologue,
celle de la théorie et de l'expérimentation.
Il n'existe aucune règle, ni pour déterminer un champ, ni pour nommer les polarités, et
c'est parce qu'il faut insister sur la distinction du compris et du vécu qu'il faut vivre la
structure absolue pour pouvoir l'appliquer, au sens strict du terme — à tel champ pertinent
convenablement polarisé dans le cadre du même vécu. Qu'il n'y ait aucune règle ne saurait
surprendre : la structure absolue est intemporelle et ne peut, dès lors, être saisie par le
langage, qui est engagé dans le temps : déterminer le champ pertinent et nommer
correctement les polarités sont l'œuvre de l'ego transcendental, et non du Moi naturel
amateur de recettes.
C'est André Lamouche, philosophe français contemporain, qui développe une logique de
la simplicité retrouvant certains principes énoncés au XIXe siècle par le philosophe
allemand Avenarius.
Du point de vue causal ce principe s'énonce : toutes choses égales d'ailleurs, il y a toujours
le rapport le plus simple possible entre la cause et l'effet. Ce principe maintes fois
appliqué par les chercheurs sous des formes diverses peut seul suppléer à l'insuffisance
reconnue du principe d'identité causal. Il existe, de même, un énoncé probabiliste du
principe de simplicité, la probabilité d'un phénomène simple est plus grande que celle d'un
phénomène compliqué. Le calcul des probabilités tout entier et ses applications
constituent des illustrations implicites de ce principe.
Mais en dépit de leur intérêt les énoncés qui précèdent n'atteignent pas le fond du
problème. D'une part en effet ils ne mentionnent pas le caractère ambifonctionnel du
principe de simplicité, d'autre part ils ne font pas ressortir le parallélisme entre l'énoncé
cosmique et l'énoncé psychique de ce principe, parallélisme qui est le fondement d'une
logique naturelle et universelle de simplicité.
Ainsi que Lamouche l'a établi dans ses œuvres, c'est le parallélisme entre ces deux
énoncés, à savoir l'applicabilité du principe ambifonctionnel de simplicité aux trois étages
biologique, cosmique et psychique de l'évolution qui est à l'origine de la communauté de
rythme entre l'activité infrastructurelle du Cosmos et celle qui sous-tend notre propre
activité psycho-physiologique. Et seule l'isorythmie entre le déterminisme cosmique et le
processus dualiste de l'association psychique s'explique par l'existence d'une logique
cohérente et son accord possible avec la réalité.
Depuis cette date, 1937, et après une période où il a connu ce que Gauss appelait la
« clameur des béotiens », un changement de climat intellectuel est survenu et un grand
nombre d'hommes de science ont suivi de semblables cheminements de pensée. Si bien
que la théorie générale des systèmes, après tout, n'est pas aussi solitaire ou
idiosyncrasique que son auteur ne le croyait, mais correspond plutôt à l'une de ces
tentatives parallèles que l'on peut aujourd'hui découvrir en un bref survol.
Dans son sens large, la théorie générale des systèmes se présente alors comme une
science fondamentale, avec ses correspondances dans les domaines de l'application,
quelquefois rassemblées sous le nom général de science des systèmes. Ce prolongement
est étroitement solidaire de l'automation moderne, et on y distingue : « l'engineering », la
recherche opérationnelle... En effet, une illustration très simple de la nécessité d'étudier
les systèmes homme-machine est, par exemple, fournie par les voyages. N'importe qui
comprendra facilement à quel point, après avoir traversé des continents à une incroyable
vitesse grâce aux avions à réaction, mais après avoir aussi perdu des heures sans fin à
attendre, à faire la queue en foule dans les aérodromes, à quel point donc les techniques
physiques du voyage aérien sont perfectionnées, tandis que les techniques « d'organisation
» en sont encore à leur niveau le plus primitif.
Toutes ces théories ont un certain nombre de traits communs. 1° Elles sont d'accord pour
souligner que quelque chose doit être fait au sujet des problèmes caractéristiques des
sciences biologiques et comportementales qui ne peuvent être traitées par la théorie
physique conventionnelle. 2° Elles introduisent des concepts et des modèles nouveaux
(quelquefois même matériels) à côté de ceux fournis par la physique : par exemple, celui
de système généralisé, ou celui d'information comparée à l'énergie qu'utilise la physique.
Ces modèles sont alors interdisciplinaires et transcendent les divisions habituelles de la
science. 3° Elles s'intéressent particulièrement aux problèmes à plusieurs variables. 4°
Elles permettent aussi une économie de travail, car un ensemble de principes peut être
transféré d'un domaine à un autre, sans qu'il soit nécessaire de renouveler l'invention
comme cela arriva dans le passé. 5° Enfin, et c'est peut-être le plus important, les concepts
de totalité, d'organisation, de téléologie et d'orientation qui semblaient, dans la science
mécaniste, a-scientifiques ou métaphysiques, sont aujourd'hui pris au sérieux et
justiciables d'une analyse scientifique.
Toutes ces voies d'approche ne sont pas, et ne doivent pas être, envisagées d'une manière
totalitaire. Un des aspects importants des modifications survenues dans la pensée
scientifique moderne, réside dans la prise de conscience du fait qu'il n'existe aucun
système unique susceptible d'embrasser tout l'univers. Les constructions scientifiques ne
traduisent que certains aspects ou certaines perspectives du réel. Cela s'applique même à
la physique théorique qui, loin d'être une représentation métaphysique de la réalité ultime
(comme le matérialisme passé le proclamait, et comme le positivisme moderne l'implique
encore), n'est qu'un modèle parmi d'autres, et, ainsi que le montrent ses récents
développements, ni exhaustif ni unique. Les diverses théories des systèmes sont aussi des
modèles qui reflètent différentes images. Elles ne s'excluent pas mutuellement et même,
souvent, se combinent dans certaines de leurs applications.
Et loin d'être rejeté, l'espoir demeure d'une future synthèse au sein de laquelle les diverses
approches actuelles vers une théorie de la totalité et de l'organisation pourront être
intégrées et unifiées.
Le cybernéticien anglais Ashby a nettement souligné les deux voies possibles et les
méthodes générales de l'étude des systèmes. « L'une, est déjà bien développée dans les
mains de Von Bertalanffy et de ses collaborateurs. Ils prennent le monde comme ils le
trouvent, examinent les systèmes variés qu'il comprend — zoologique, physiologique, etc.
— et dressent alors un compte rendu des régularités observées qui s'y maintiennent. Cette
méthode est essentiellement empirique. La seconde méthode procède à l'inverse. Au lieu
d'étudier d'abord un système, puis un autre, enfin un troisième et ainsi de suite, elle va à
l'autre extrême, considère l'ensemble de tous les systèmes concevables et réduit ensuite
cet ensemble à une taille plus raisonnable. C'est la méthode que j'ai récemment suivie ».
Il est facile de voir que toutes les recherches concernant les systèmes suivent finalement
l'une ou l'autre de ces méthodes ou une combinaison des deux, qui ont chacune leurs
avantages et leurs inconvénients.
a) La première méthode est empirico-intuitive. Elle a l'avantage de rester assez proche de
la réalité et peut aisément être illustrée et même vérifiée par des exemples pris dans les
différentes disciplines scientifiques. D'un autre côté, elle peut apparaître naïve et
anarchique aux esprits qui attendent d'elle une élégance mathématique et une force
déductive dont elle est dépourvue.
b) La voie déductive fut donc suivie par Ashby. Ce dernier s'interroge sur la notion
fondamentale de machine et en vient à une conception moderne de « machine avec facteur
d'entrée », et constituée par un ensemble S d'états internes, un ensemble I de facteurs
d'entrée, et une application f dans S du produit I x S. On en arrive ainsi aux deux
significations possibles des systèmes auto-organisateurs selon Ashby.
Dans un premier cas, le système naît avec des éléments séparés qui se modifient ensuite
pour s'articuler les uns aux autres : exemple, les cellules embryonnaires qui, tout d'abord,
n'exercent que peu, ou pas du tout, d'effet les unes sur les autres et qui s'unissent
ultérieurement pour constituer le système nerveux hautement interdépendant. C'est un
système « évoluant d'un état inorganisé à un état organisé ».
Ce bref aperçu permet de remarquer les limites de cette seconde voie d'approche. La
définition moderne des systèmes qui, selon Ashby, correspond à une « machine avec
facteur d'entrée » introduit un modèle à caractère assez particulier : le modèle
cybernétique d'un système ouvert à l'information mais clos au transfert d'entropie. Cela
devient net quand cette définition est appliquée aux systèmes auto-organisants dont les
plus importants ne peuvent avoir aucune place parmi les modèles d'Ashby. Sont ainsi
exclus tous les ensembles se structurant eux-mêmes par voie de différenciation
progressive, évoluant d'états de faible complexité vers des états de très haute complexité.
Et ce sont pourtant les formes les plus remarquables d'auto-organisation, apparentes dans
l'ontogenèse, probables dans la phylogenèse et, certainement aussi, valables dans de
multiples organisations sociales. Pour de telles structures, il n'est pas question de bonne
ou de mauvaise organisation mais d'augmentation de la différenciation et de la
complexité, qu'elle soit utile ou non. Ce critère est objectif et, au moins en principe,
justifiable de mesures (en termes d'entropie décroissante, ou d'information). L'affirmation
d'Ashby selon laquelle « les changements ne peuvent être attribués à aucune cause interne
à l'ensemble S, mais doivent survenir de quelque agent extérieur, de quelque facteur
d'entrée », revient donc à exclure les systèmes auto-différenciants.
Or, la raison pour laquelle de tels ensembles ne sont pas conformes aux machines d'Ashby
est patente. Les systèmes auto-différenciants qui évoluent vers une complexité de plus
haut niveau (entropie décroissante) ne peuvent exister, pour des raisons
thermodynamique, que comme systèmes ouverts : c'est-à-dire qui importent en quantité
suffisante une matière riche en énergie libre pour compenser l'accroissement d'entropie dû
aux processus irréversibles internes aux systèmes (ils importent ainsi une entropie
négative). Pourtant, nous ne pouvons pas dire que le changement vient de quelque agent
externe, d'un facteur d'entrée. La différenciation, à l'intérieur d'un embryon en
développement et d'un individu, est due à ses lois internes d'organisation, et le facteur
d'entrée (la consommation d'oxygène qui peut varier quantitativement, ou la nutrition qui
peut varier qualitativement dans les limites d'un très large éventail) rend seulement cette
organisation énergétiquement possible.
Tout cela fut, d'ailleurs, ultérieurement illustré par des exemples complémentaires fournis
par Ashby, imaginons une calculatrice électronique digitale, effectuant des multiplications
au hasard. La machine tendra à livrer des nombres pairs (parce que les produits pair x
pair, aussi bien que pair x impair donnent des nombres pairs) et éventuellement seuls les
zéros « survivront ». Ashby cite aussi le dixième théorème de Shannon, établissant que
(dans un circuit d'information) si un canal de correction possède une capacité H, on peut
enlever un montant H d'équivocation mais guère plus. Ces deux exemples montrent le
travail des systèmes clos. L'évolution de la calculatrice se fait vers la disparition de la
différenciation, et l'établissement d'une homogénéité maximale (analogue au second
principe des systèmes clos). Le théorème de Shannon, pareillement, concerne les systèmes
clos où aucune entropie négative ne réside. Comparée à l'organisation d'un système
vivant, la matière importée par la nutrition ne transporte aucune information mais du «
bruit ». Néanmoins, son entropie négative est utilisée pour maintenir, et même pour
accroître, le contenu informationnel du système. C'est une situation apparemment non
prévue par le dixième théorème de Shannon qui nee traite pas du transfert d'information
dans les systèmes ouverts avec transformation de matière. Dans ces deux cas, l'organisme
vivant (et les autres systèmes comportementaux ou sociaux) n'est pas une machine
d'Ashby parce qu'il évolue vers une différenciation et une hétérogénéité croissantes, et
parce qu'il peut rectifier le « bruit » à un plus haut degré que ne peut le faire un canal de
communication inanimé. Cependant, tous ces cas ne sont que les conséquences du
caractère organismique des systèmes ouverts, et il souligne simplement qu’il n’y a pas de
voie royale pour la théorie générale des systèmes. Cette dernière devra se développer dans
une intrication de méthodes empiriques, intuitives et déductives. Car, si la démarche
intuitive laisse beaucoup à désirer quant à la rigueur logique et à la perfection, l'approche
déductive se heurte à la difficulté de savoir si les termes fondamentaux ont été
correctement choisis.
Dans l'esprit de son créateur, la théorie générale des systèmes; doit être conçue comme
une hypothèse de travail. Homme de science praticien, il lui semble que la fonction
principale des modèles théoriques est d'interpréter, de prédire et de commander les
phénomènes jusqu'ici inexpliqués. D'autres peuvent tout aussi légitimement insister sur
l'importance d'une approche axiomatique, et citer à cet effet des exemples tels que la
théorie des probabilités, les géométries non euclidiennes, plus récemment encore les
théories de l'information et des jeux qui furent primitivement élaborées comme des
domaines mathématiques déductifs, et ensuite appliqués à la physique ou à d'autres
disciplines scientifiques. Il n'y aura pas de dispute sur ce point. Mais, le danger de toutes
les voies poursuivies est de considérer trop précocement un modèle théorique comme clos
et définitif. Un danger particulièrement important pour une discipline comme celle des
systèmes généraux, qui tâtonne encore à la recherche de ses fondements exacts.
***
L.-J. DELPECH,
Professeur honoraire à la Sorbonne.
Président de la Société française de Cybernétique et
des Systèmes généraux.