You are on page 1of 23

VOLUME 142, N° 10 DÉCEMBRE 1984

ANNALES
MÉDICO-PSYCHOLOGIQUES
MÉMOIRES ORIGINAUX

QUE PEUT APPORTER L'ÉPISTÉMOLOGIE


EN PSYCHIATRIE
A L'ÈRE DES RECHERCHES INTERDISCIPLINAIRES ?
par
P. MARCHAIS

Mots-clés : Épistémologie, Recherche interdisciplinaire, Informatique, Méthode systémale

RÉSUMÉ : L'auteur montre la nécessité d'une étude critique et logique des sciences pour
mieux comprendre l'apparition et le développement des multiples aspects de la
psychiatrie. Il introduit le travail d'un philosophe des sciences, le Pr L.-J. Delpech, qui
évoque la rupture entre la pensée classique et la pensée scientifique contemporaine dans
un texte sur « Les nouvelles épistémologies ».
P. Marchais rappelle que certaines d'entre elles ont tenu un rôle important dans ses
propres travaux. Elles lui ont permis de renouveler son mode d'observation et de fonder
une nouvelle méthode efficace pour sa connaissance et son activité clinique quotidienne.
Ainsi peut-il témoigner des effets théoriques et pratiques de l'épistémologie en
psychiatrie.

SUMMARY: The author shows it is necessary to perform a critical and logical study of
the sciences in order to understand better the origin and the development of the multiple
aspects of psychiatry. He introduces the work of a philosopher of science, Pr L.-J Delpech
who points out the rupture between classical and contemporary scientific thinking in an
article on “The new epistemologies”.
P. Marchais recalls that some of them have played an important role in his own work.
They have permitted him to renew his mode of observation and to found a new effective
method for organizing his daily clinical activities. Thus he can testify the theoretical and
practical effects of epistemology in psychiatry.

La diversité des courants d'étude et la disparité des niveaux de connaissances en


psychiatrie l'influence croissante d'autres disciplines comme la biologie, le rôle important
des techniques modernes, notamment de l'informatique, et les transformations qui ne
manqueront pas d'en résulter ne peuvent être bien appréciés dans leur ensemble sans être
situés par rapport au développement historique de la connaissance scientifique.

Il en est de même pour le passage de la clinique empirique initialement syndromique —


apparue avec Pinel au début du XIXe siècle — à celle des entités — ayant atteint son
apogée avec Kraepelin —, l'apparition conjointe de la psychodynamique fonctionnelle
objective fondée par P. Janet et interprétative dominante analogique sensible de Freud
concernant les phénomènes inconscients, l'évolution de la conception nosographique en
maladies vers celle des processus psychopatbologiques, et tant d’autres facettes
apparemment contradictoires et pourtant complémentaires de la connaissance
psychiatrique.

Néanmoins, cette connaissance si diversifiée se présente comme une vaste construction


d'ensemble, fruit de plusieurs générations de cliniciens depuis la fin du XVIIIe siècle,
auxquels se sont joints tout récemment des fondamentalistes. Tout psychiatre averti sait
qu'aucun courant ne pourrait en être exclu ou tenu à l’écart sans déformer le visage de sa
discipline, chacun ayant contribué d'une façon ou d'une autre à l'élaboration de cet édifice
et ayant même parfois induit l'éclosion de nouveaux courants ou participé à leur
maturation. En outre, si nous voulons assurer sa valeur scientifique et ne pas la laisser
s’effriter sous les assauts de ses détracteurs, nous devons comprendre et souligner la
cohérence de son développement.

Par suite, pour mieux en saisir le sens général, il convient de la situer au sein de la
connaissance générale et d'en extraire les dynamiques internes, comme le clinicien peut en
découvrir dans les phénomènes inconscients du sujet, ou dans la pathologie du patient.
Ceci est le rôle de l'épistémologue qui se livre à une étude logique et critique des
connaissances.

Certes, une telle réflexion est apparemment éloignée des préoccupations immédiates du
clinicien. Cependant contrairement aux apparences, il ne s’agit pas de vaines
considérations théoriques qui seraient dénuées d'efficacité pratique. En se penchant sur les
courants de pensée qui servent de référence l'observateur, le psychiatre peut mieux
comprendre le sens et les limites de ses propres connaissances. Par suite, il peut s’ouvrir
davantage à de nouveaux modes de pensée plus enrichissants pour l'étude et le traitement
des troubles mentaux.

Toutefois, le domaine de l'épistémologie n'est pas simple ni facile ù assimiler, car il


nécessite des efforts d'abstraction parfois ardus. En outre, i| n'est pas clos ni bien limité et
ne peut être défini une fois pour toutes. En tant que réflexion sur la connaissance,
l'épistémologie demeure ouverte en permanence aux innombrables directions et détours
possibles de la pensée humaine. Elle prend donc divers aspects et comporte une histoire
pour chacun d'eux. R. Blanché distinguait ainsi une "épistémologie externe" ou générale,
plus proche de la philosophie, et une « épistémologie interne », propre à chaque
discipline. Sa complexité est donc certaine. Cependant, les réflexions qu'elle suscite
peuvent enrichir ses adeptes à la mesure des efforts qu'elle leur impose.

Il est donc important pour le psychiatre de s'intéresser à elle, car il doit non pas opposer le
pragmatisme médical au langage abstrait de l'épistémologue, mais se rendre compte que
sa pratique quotidienne peut être enrichie par les conséquences rétro- et antéroactives de
la réflexion épistémologique. En ce sens, un aperçu sur ce domaine peut lui être utile.

Le Pr Léon-Jacques Delpech, psychologue, psychothérapeute, et philosophe des sciences,


ancien collaborateur de G. Bachelard et auteur du rapport « Épistémologie et
Psychologies» au Congrès International de Philosophie tenu à Paris en 1948, était
particulièrement qualifié pour exposer les orientations modernes de l'épistémologie. Il
montre la rupture de la connaissance scientifique contemporaine avec la pensée classique
dans un texte condensé sur « Les nouvelles épistémologies ». Il rappelle ainsi certaines
théories modernes qui ont déjà contribué au renouvellement de la connaissance dans les
sciences humaines et qui pourront peut-être enrichir à l'avenir notre discipline. Ce texte ne
fait pas apparaître les rapports entre la psychiatrie et l'épistémologie, car ce travail reste
celui du psychiatre, mais il servira de référence à ce dernier pour assurer ses propres
démarches en un domaine abstrait qui ne lui est pas familier. Au lecteur qui n'en saisirait
pas l'intérêt immédiat, rappelons qu'il lui suffirait de se reporter à l'état de la psychiatrie
avant l'apparition de la pensée freudienne ou avant les années 50, époque à laquelle la
chimie et la pharmacologie sont venues transformer nos modes de pensée et même nos
concepts nosographiques, pour admettre la nécessité d'une ouverture sur les nouveaux
aspects de la pensée contemporaine particulièrement riche en rebondissements.

Le clinicien pourra aimai trouver des éléments pour mieux comprendre les conditions
d'apparition et les caractéristiques de la pensée scientifique contemporaine et, par suite,
l'éclosion des nouveaux courants de connaissance présents et à venir en psychiatrie. Ainsi
pourra-t-il mieux saisir les raisons des révolutions passées et futures dans l'histoire de
cette discipline, et mieux en préciser les dynamiques. En outre, en se penchant sur ces
nouvelles théories, il pourra voir lui-même si certaines d'entre elles l'incitent à modifier
ses propres méthodes d'observation ou à remanier celles qui lui sont proposées. Ainsi loin
d'être enfermé dans un monde purement théorique, il pourra au contraire se rendre compte
des possibilités de libération conceptuelle qui lui sont offertes par l'épistémologie.

A titre d'exemple, nous rappellerons brièvement notre expérience personnelle en ce


domaine, car elle nous a montré que l'épistémologie pouvait apporter en psychiatrie des
ouvertures et des moyens nouveaux directement transposables dans notre activité
quotidienne avec des conséquences pratiques immédiates.

De nouvelles conditions d'observation en service libre d'hôpital général nous avaient


montré dès 1950 l'inadéquation des référentiels classiques face aux phénomènes observés.
Aussi avions-nous essayé d'en mieux comprendre les raisons. A cet effet nous avions
tenté, il y a une dizaine d'années, de proposer pour la première fois en notre discipline une
épistémologie interne dans notre ouvrage intitulé « Métapsychiatrie » (Masson, Paris,
1974). Cet essai n'avait manifestement pas été bien compris, certains critiques n'en
percevant que les considérations théoriques sans en pressentir les effets pratiques. Or, les
travaux que nous avions utilisés pour cet ouvrage nous avaient fait prendre conscience des
limites de la pensée psychiatrique classique et incité à rechercher d'autres modes de
pensée possibles pour notre discipline.

Ainsi les études de R. Carnap, H. Poincaré, F. Gonseth, G. Bachelard, J. Cavaillès, J.


Piaget, K. Popper, Th. S. Kuhn, L. von Bertalanffy, et tant d'autres — nous avaient
conduit à remodeler notre attitude d'observation initiale. Notamment, l'œuvre de G.
Bachelard fut pour nous déterminante par sa mise en lumière du caractère toujours
approché de la connaissance, la nécessité de connaître les aspects cachés derrière
l'apparence des phénomènes, l'objectivité du concept qui peut de nos jours devenir réalité,
la dialectique d'une démarche « abstraite-concrète » qui permet d'approcher de mieux en
mieux la réalité observée, etc.

Pour affiner l'observation clinique des troubles mentaux nous avions donc été tenté de
recourir à un support conceptuel de référence cohérent, d'ordre logique et mathématique
relativement élémentaire, capable de prendre valeur de réalité face aux phénomènes
observés. De ce fait, ce système de référence pouvait devenir particulièrement efficace en
psychiatrie, tout en étant entièrement nouveau. Théoriquement, un tel choix permettait
d'obtenir la meilleure cohérence possible dans les démarches de connaissance, devenant
par-là susceptible de faire évoluer la psychiatrie vers un statut plus scientifique. Ainsi
avons-nous pu élaborer une nouvelle méthode d'observation que nous avons dénommée
systémale, en recourant à l'analyse comparative et différentielle des phénomènes de même
nature, aux notions d'invariant, de modèle opératoire, de rétroaction cybernétique, de
système, d'ensemble, de combinatoire, d'intégrale... De même, cette orientation nous a
conduit à utiliser l'aide technique de l'ordinateur, puisque cet ensemble de démarches
s'avère cohérent avec celles de l'informatique, et nous essayons actuellement d'affiner
l'étude clinique de la pathologie mentale par cette nouvelle méthode. La voie d'une
psychiatrie assistée par ordinateur est ainsi ouverte dans une prospective non plus
seulement quantitative, comme les recherches qui utilisent les notions classiques, mais
aussi qualitative plus spécifique à la nature des phénomènes observés en notre discipline.

Nous ne reviendrons pas sur ce renouvellement de l'observation que nous avons exposé
dans plusieurs ouvrages, notamment dans « Les Processus psychopathologiques de
l'adulte » (Privat, 1981), et « Les Mouvances psychopathologiques » (Eres, 1983), travail
que nous sommes en train de développer pour l'étude des interrelations du trouble mental
et du milieu, afin de faciliter les recherches en psychiatrie sociale et transculturelle.

Disons simplement qu'il aboutit à une observation psychodynamique objective et


vérifiable, capable de pouvoir toujours affiner l'étude des troubles mentaux. Ce nouveau
mode d'analyse clinique extrait leurs propriétés invariantes qui permettent d'élaborer des
modèles opératoires en permanence ouverts. Cette observation peut être aussi bien centrée
sur le seul patient et ses infrastructures biopsychologiques qu'ouverte sur ses relations
avec le milieu ambiant socioculturel et sur les propriétés des communications établies.
L'assistance de l'ordinateur, rendue possible par le caractère permanent des invariants,
facilite l'analyse des innombrables liaisons et corrélations de ces invariants qui participent
à la pathologie mentale, qu'elles soient d'ordre biopsychologique ou sociopsychologique.
De cette façon, l'ordinateur permet des analyses intrasystémiques et intersystémiques,
ainsi que des études interdisciplinaires fondées sur des isomorphismes structuraux. Le
caractère fonctionnel et qualitatif des données traitées évite le danger d'un modèle clinique
clos informatisable qui conduirait tôt ou tard à l'épuisement des recherches.

Sans même entrer dans le détail de cette démarche d'ensemble ou des raisons qui l'ont
motivée et qui la justifient, il est possible de se contenter d'en utiliser les effets, c'est-à-
dire des modèles, pour se rendre compte des nouvelles possibilités qu'elle offre face à la
clinique.

Ainsi l'épistémologie nous a permis d'envisager une nouvelle méthode d'observation en


nous faisant bénéficier d'une cohérence conceptuelle interne et d'une congruence étroite
avec les phénomènes observés. En outre, elle nous a incité à maintenir pour cette méthode
une ouverture permanente, qui s'est avérée productive aussi bien pour la recherche
théorique que pour le traitement quotidien de nos patients.
Dès lors, devant les résultats obtenus, nous pouvons aujourd'hui témoigner que toutes ces
notions logiques, mathématiques et techniques, qui spécifient la pensée scientifique
moderne et qui investissent progressivement le monde où nous vivons sont assimilables
par la psychiatrie pour l'étude des phénomènes cliniques qualitatifs qui la caractérisent.

Cependant, notre option n'est qu'une réalisation possible parmi d'autres. Loin d'être unique
et fixée une fois pour toutes, elle peut toujours s'enrichir à d'autres notions
épistémologiques, être complétée, voire renouvelée, comme nous le faisons pour nos
recherches transculturelles actuelles.

Ainsi est-il possible de se rendre compte de l'ouverture conceptuelle et des effets pratiques
que l'épistémologie peut apporter en psychiatrie. Puisse notre discipline s'ouvrir à ces
nouveaux modes de réflexion pour participer à l'évolution de la pensée scientifique
contemporaine et ne pas rester à l'écart des apports incontestés et constructifs que celle-ci
nous réserve pour le plus grand bien des malades mentaux.

Le Dr. Pierre Marchais est neuropsychiatre. Ancien chef de service à l'Hôpital Foch de
Suresnes, Secrétaire général et Président de la Société Médico-Psychologique, membre
de l'Académie européenne interdisciplinaire des sciences, il a participé à la fondation de
nouvelles institutions psychiatriques en milieu hospitalier général, pénitentiaire, et de
recherche. Adepte d'études interdisciplinaires sur le fonctionnement psychique, il est
l'auteur de travaux couronnés par l'Académie de Médecine et l'Académie française, et
d'une longue suite d'ouvrages dont plusieurs ont été traduits à l'étranger.

Livres :

L'esprit : Essai sur l'unité paradoxale des flux énergétiques de la dynamique


psychique de Pierre Marchais 2009

La conscience humaine : Des flux énergétiques réflexifs, interactifs et transcendants


de Pierre Marchais 2007

L'activité psychique : De la psychiatrie à une théorie de la connaissance de Pierre


Marchais 2004

Le nouvel esprit psychiatrique de Pierre Marchais et Axel Randrup 2000

Permanence et relativite du trouble mental de Pierre Marchais et Axel Randrup


1986

Les mouvances psychopathologiques : essai de psychiatrie dynamique de Marchais


Pierre 1983

Magie et mythe en psychiatrie de Pierre Marchais 1977

Psychiatrie de synthèse de Pierre MARCHAIS 1973


LES NOUVELLES ÉPISTÉMOLOGIES
par
Pr Léon-Jacques DELPECH
Professeur Honoraire a la Sorbonne.
Président de la Société Française de
Cybernétique et des Systèmes Généraux

HISTORIQUE

L'épistémologie est la science de la connaissance. C'est une discipline qui d'une certaine
manière est récente puisqu'elle date de la deuxième moitié du XVIIIe siècle avec l'ouvre
du philosophe allemand Kant (1724-1804). Mais comme toutes les grandes disciplines
elle a une préhistoire, c'est-à-dire que sans prendre conscience de sa réalité autonome, les
problèmes qu'elle implique ont été abordés depuis des temps reculés de la tradition
philosophique : ainsi les sophistes grecs dans la haute antiquité ont été les premiers à
mettre en question la valeur de la connaissance quelques siècles avant Jésus-Christ, et
curieusement ce phénomène n'a pas été spécifique à l'Occident mais il a été universel,
s'étendant en Inde et en Chine (cf. P. Masson-Oursel : Les sophistes, Revue de
métaphysique et morale, 1915). Cette crise que j'ai été amené à comparer à celle de 1968
dans une lettre à André Malraux, a été conjurée par Socrate et à sa suite la constitution
d'une philosophie consistante réalisée par son disciple Platon qui a su mettre en valeur,
sous le nom d'Idées, des invariants. Le platonisme devait continuer son itinéraire jusqu'à
nos jours où il aboutit d'une part à la psychanalyse (j'entends par là une philosophie qui
met l'accent sur l'inconscient et l'affectivité) du suisse Jung et à certaines conceptions du
philosophe anglais B. Russell. Kant a donc posé le premier en toute conscience le
problème épistémologique, mais curieusement si on lit sa logique on y trouve les
catégories aristotéliciennes telles qu'elles sont décrites dans le livre des Analytiques
d'Aristote dont l'étude, disait Joseph de Maistre, assure à ceux qui l'avait pénétrée une
supériorité d'esprit indiscutable. Pourtant à travers le XIXe siècle cet ordre séculaire allait
être bouleversé par des critiques concentriques venant de diverses directions. Il y a
d'abord les logiciens anglais Boole, Morgan et Jevons qui, reprenant certaines idées de
Leibniz, idées exposées par Couturat dans sa logique de Leibniz (1902) montrèrent que la
logique dépassait de loin le discours soumis aux principes d'identité de contradiction et de
raison suffisante, et ne pouvait se rattacher d'une certaine manière à l'algèbre (cf. L. Liard:
Les logiciens anglais contemporains 1878). Une seconde attaque contre l'épistémologie
classique est venue du domaine préférentiel philosophique et l'œuvre du penseur allemand
Dilthey avec sa Critique des sciences humaines (1885) qui partant du modèle
autobiographique et biographique a mis en lumière la distinction entre l’explication
causale et la compréhension intuitive : c'est ce que le penseur allemand Jaspers a mis en
œuvre dans son célèbre Traité de Psychopathologie Générale (1912). Cette distinction
qu'on retrouve chez Bergson est un des points fondamentaux de la spécificité des sciences
humaines dont Gusdorf dans une œuvre prodigieuse de plus de dix volumes raconte
l'épopée. Une troisième attaque contre l'épistémologie classique dont le modèle est le
couple Newton-Kant, a été réalisée par le mathématicien Henri Poincaré. Celui-ci
examinant l'œuvre du physicien anglais J.-C. Maxwell, un des créateurs de la physique
moderne par sa découverte de l'équivalence entre la lumière et l'électricité, est arrivé après
un examen de son œuvre un peu déroutante à cette découverte que si un modèle
mathématique est satisfaisant, on peut démontrer que n modèles le sont, et on choisira le
plus commode. Si nous résumons le cheminement mis en lumière, il faut dire qu'en dehors
d'une raison ferme et unilatérale nous devons utiliser des logiques nouvelles. Je ne peux
continuer cet itinéraire : je me contenterai de dire que s’est développé une double
exigence d'unité et de multiplicité dans les sciences cosmologiques dont le type est la
physique, et dans les sciences humaines. La physique a pris des formes diverses et une
tentative d'unification entre la physique des quanta et celle de la relativité a été tentée par
J.-L. Destouches qui en 1943 a publié un traité de physique où il multipliait les points de
vue, puis en 1954 il parlait de physico-logique une discipline nouvelle qui étudiait La
structure et la combinaison des théories physiques. Dans le domaine des sciences
humaines Palmade avait soutenu en 1953 une thèse sur l'unité des sciences humaines qui
prenait comme modèle la psychotechnie. Cette thèse, malheureusement publiée en 1961,
n’eut à peu près aucune résonnance. Il n’en demeure pas moins que le problème
épistémologique a pris peu à peu une grande importance. La dissociation entre la logique
et le réel a disparu de plus en plus. Aussi pour faire comprendre le problème, nous allons
examiner une série d'épistémologies contemporaines qui à l’heure actuelle ont permis à
ceux qui les utilisaient d’obtenir des résultats de plus en plus efficaces.

***

ÉPISTÉMOLOGIES CONTEMPORAINES

1. — LES PSYCHO-LOGIQUES

Il s'agit de disciplines qui étudient particulièrement les rapports des théories physiques et
de la logique. Elles furent créées par Gonseth, Bachelard et Destouches.

F. Gonseth, mathématicien et épistémologue suisse, condisciple d'Einstein à 1'École


polytechnique de Zurich, est mort en 1976. Dans une œuvre de plus de huit volumes et
cent cinquante articles, il a énoncé quatre principe de base : 1o Le principe de
réversibilité. Aucun élément de la connaissance ne peut « sans arbitraire » être posé
comme " fermé ", achevé dans sa signification et par conséquent irréformable dans toutes
ses significations. Au plan de l'hypothèse scientifique, le principe ne s'oppose pas à telle
ou telle « hypothèse de fermeture », qu'on se proposerait de mettre à l'épreuve. Il doit
cependant être interdit de décréter qu’un élément quelconque ne sera jamais susceptible
d'être réformé, qu'il ne sera jamais capable de la révision qui lui permettrait
éventuellement d'entrer dans une position ultérieurement corrigée ou précisée. « Il n'existe
pas de raison absolument et inconditionnellement valable de nous croire capable de
décider par avance et pour toujours, que tel ou tel secteur de notre connaissance n'aura
jamais à être révisé ». 2o Le principe de structuralité. Si la réversibilité est à la fois le trait
commun à toute connaissance et la condition de tout progrès, il est une seconde
caractéristique du fait scientifique qui elle aussi s'impose à l'observation en même temps
qu'elle apparait comme la forme que revêtent l'acquisition et le progrès de la
connaissance. Cette seconde caractéristique dans le prolongement de l'opposition
classique du rationnel et de l'empirique est quelquefois désignée par Gonseth sous le nom
de principe de dualité. Mais déjà dans « la géométrie et le problème de l'espace », la
notion de dualité est dépassée. L'équivalence de vérité entre l'intuitif, l'expérimental et le
rationnel implique la coexistence de trois aspects et non de deux aspects. La seconde
synthèse dialectique confirme que trois aspects concourent à l'unité et à la cohérence de
l'opération géométrisante. Dans la conclusion de son livre, Gonseth insiste sur
l'insuffisante d'une simple mise en synthèse de l'empirique et du rationnel. Aucun aspect,
aucun phénomène n'est localisable et discernable à l'état pur. Si la méthode peut
néanmoins se proposer de mettre l'un ou l'autre en évidence, elle se gardera de l'isoler de
la diversité intégrée des aspects ou des phénomènes. A ces derniers correspondront des
schémas plus ou moins adéquats et significatifs, des structures qu'il y aura lieu d'envisager
comme rattachées à une diversité que l'état présent de la recherche n'épuise ni ne
circonscrit jamais. Comme pour l'axiomatisation, la méthodologie conteste que telle ou
telle structure puisse prendre son sens méthodologique et scientifique hors d'une mise en
situation dialectique, hors d’un effort de synthèse où la valeur des éléments en présence
est suspendue à la nature de la relation qui peut s'établir entre eux. De ce point de vue la
diversité intégrée des aspects ou des structures suppose une unité structurale propre à
chaque domaine de connaissance ou du moins à chaque discipline. Cette unité structurale
représente l'horizon méthodologique et critique où les schémas de la connaissance
spécialisée, notamment, révéleront, au-delà de leur signification intrinsèque, les
significations extérieures qu’ils peuvent revêtir soit du côté de l'objet, soit du côté du
sujet. Mais cette unité n'est pas donnée d'avance, elle est à construire selon une idée
directrice, à faire valoir et susceptible d'être révisée en tout temps. 3o Le principe de
technicité. C'est en corrélation avec le principe précédent que le principe de technicité
prend toute sa valeur. Dans la méthodologie, la technicité recourt à l'instrumental, en tant
qu'il est susceptible de se distinguer des informations naturelles et des opérations de
l'esprit. Sa forme variera du verbal à l'objet ou à la machine : l'essentiel est de voir que
rien, et à aucun titre, ne peut être considéré comme du purement instrumental, toute
délimitation se justifiant en fonction des données propres à chaque discipline.
L'autonomie d’une discipline, l'efficacité de ses pratiques expérimentales, sont intimement
liées à sa technicité ; la méthodologie doit prendre acte du fait technique comme d'un fait
principal sans lequel son analyse resterait en deçà des réalités de la pratique. 4o Le
principe de solidarité ou d’intégralité. Il relève simplement du fait « que la connaissance
scientifique forme une trame dont toute les parties se tiennent et se conditionnent les unes
les autres ». Il rappelle le fait qu'une révolution portant sur telle ou telle partie de ce
système bien lié peut ou doit entrainer des révisions en tel ou tel autre point. Il n’y a là
guère autre chose que la formulation dune expérience commune.

G. Bachelard, professeur la Faculté de Dijon, puis la Sorbonne, est mort en 1961. Il s’est
efforcé durant sa carrière de créer une psychologie de l'esprit scientifique avec pour
corollaire une méthodologie en vue d'établir les fondements d'une conscience de la
rationalité qui soit à la mesure de notre temps. La Science incite l'homme à saisir les
choses et les phénomènes dans des cadres rigides (précis) mais avec un contrepoint dans
l'imaginaire. La réflexion philosophie est dans un premier moment constructive. La
science est une suite infinie de rectifications. La connaissance est approchante, elle est
toujours approchée (c'est le titre de sa thèse de 1929), jamais définitive. Le sujet
connaissant est en interaction incessante avec le phénomène scientifique. Jamais la
science n'est donnée d'un coup, elle suit un long processus d'élaboration. Il y a d'abord une
connaissance première des faits scientifiques, celle-ci est fournie par les premiers
enregistrements des sens. Mais aussitôt, la raison loin d'entériner ces faits les travaille
pour en dégager le sens au service de la science. Or rien dans la raison humaine n'est
immobile. Au contact de l’objet scientifique la raison se forme et se déforme (Le Nouvel
esprit scientifique). Aucun principe, aucune catégorie, aucune structure que la raison se
donne n'est définitif. Tout change en fonction du stade de développement de la science. La
science fonde aujourd'hui un type d'intelligibilité qui est dialectique. Connaître ne peut
éveiller « qu'un seul désir : connaître davantage, connaître mieux ». Le nouvel esprit
scientifique est l'ébauche de cette attitude mais au préalable il faut exclure deux types
d'explications métaphysiques. La pensée de Bachelard après avoir établi que la science est
dialectique va adopter un ton critique. D'une part la science ne se borne pas à
l'enregistrement des faits bruts. Il n'y a de science que de ce qui est caché. Il est nécessaire
pour l'esprit scientifique d'établir des normes et des cadres qui favorisent l'explication de
ces données immédiates des sens et de la perception. D'autre pat, la raison humaine ne
peut se constituer une fois pour toutes. La science est un effort sans cesse rectifié pour
s'adapter aux phénomènes. Les domaines nouveaux conquis par la science contemporaine
ne peuvent plus faire l'objet d'une mise en pratique des cadres aristotéliciens et kantiens.
L'intelligibilité aristotélicienne était valable pour la science macroscopique. Aujourd'hui
elle est un obstacle à la connaissance, car elle ne permet pas l'analyse du domaine de
l'infiniment petit. Au contact des phénomènes l'homme transforme son esprit, sa raison
s'affine. « Le nouvel esprit scientifique montre sous sa forme la plus simple, la plus pure,
le jeu dialectique de la raison. Les moyens de la connaissance s'approfondissent sans
cesse. Il faut donc que la connaissance soit admise comme un fait dialectique. Le savoir
est une remise en question incessante ». Rien n'est jamais acquis, c'est donc par un
échange sans fin et dans les deux sens, entre l'objet et le sujet, que s'accroît la
connaissance. Le monde connu n'est pas une donnée brute, le monde est un monde
construit en fonction d'un type d'intelligibilité. Pour Bachelard la science dans son histoire
et dans ses processus de construction est l'affirmation de la dialectique. Une connaissance
n'est qu'un moment sur l'axe du devenir. Au niveau de l'activité scientifique, l'homme est
donc l'être de la dialectique. Il est dans le monde, mais il cherche à le réduire l'expression
qu'il en a. Son rapport au monde est dialectique, c'est-à-dire que le monde est sa
représentation. Celle-ci est consécutive à sa façon de le penser, autrement dit aux moyens
mis en œuvre, c'est-à-dire les cadres de l'intelligibilité. Nous venons de saisir cette
dialectique dans son caractère général : l'homme est présent au monde. Ce monde lui est
donné, il pense ce monde et réagit sur lui, ce rapport met en évidence une interaction entre
l'homme et le monde. Le modèle de l'explication du monde n'est jamais définitif. Une
théorie est sans cesse rectifiée, transformée; vérifiée au contact de l'expérience. Elle va du
réel à l'abstrait, puis revient vers le réel : la technique ou quelque forme que ce soit de
vérification. Ce retour au réel rend nécessaire un nouveau type d'intelligibilité. La raison
humaine se transforme ainsi indéfiniment au contact de l'expérience. Une rectification
objective est immédiatement une rectification subjective. « Si l'objet m'instruit, il me
modifie. De l'objet comme principal profit, je réclame une modification spirituelle ».

Cette dialectique de la connaissance, Bachelard la saisit au niveau du concept. Le concept


traduit dans la science la réalité objective. Il est forcément limitatif car il a besoin d'être
précis, affiné. Ainsi le concept de déterminisme est rendu faux par la naissance des
théories modernes. Or, c'est par une référence à la réalité, à une vérification par la pratique
que ce concept a pu se transformer. Le concept crée souvent son propre appareil de
vérification. Mieux le concept crée souvent la matière qui à son tour va transformer le
concept comme on le voit en chimie. Du réel au concept il y a toute l'activité de la
science, le concept étant la réalité rendue intelligible. Une démarche inverse nous ramène
au réel.
A ce niveau se pose le problème de l'objectivité du concept. Le concept est objectif dans
la mesure où il traduit avec le maximum d'efficacité la réalité. Il est objectif dans la
mesure où il rend compte d'un phénomène. Il se substitue à un nouveau concept devenu
moins prégnant sur le réel, du fait des enseignements nouveaux. Il est plus objectif car il
rend davantage compte de l'ensemble d'un phénomène. C'est ce qui s'est passé avec les
grands bouleversements de la science du XXe siècle. On a cru à une faillite de la science
car des notions telles que déterminisme, espace-temps, sont apparues nettement
insuffisantes pour expliquer les phénomènes. La raison devait créer un nouveau concept.
Ainsi fut créée la notion d'indéterminisme qui permit à la science un regain d'activité, le
précédent concept devenant un cas particulier du second. Il y a là une leçon de
compréhension du réel à tirer. C'est ce que fit Bachelard dans sa « Philosophie du non »
(1941).

La notion de profil épistémologique, d'après Bachelard.

Partant du concept mécanique de masse, Bachelard a mis en évidence une filiation de cinq
doctrines philosophiques nécessaires à l'éclairer. Mais comment progresser ? Il répond
ainsi : « Il nous semble qu'une psychologie de l'esprit scientifique devrait dessiner ce que
nous appellerons le profil épistémologique des diverses conceptualisations. C'est par un
tel profil mental qu'on pourrait mesurer l'action psychologique effective des diverses
philosophies dans l'œuvre de la connaissance ». On réalise alors un profil en portant en
abscisse les philosophies successives (réalisme, empirisme, rationalisme, etc.) et en
ordonnée une valeur qui mesure l'importance relative de nos convictions. Bachelard
insiste sur le fait qu'un profil épistémologique doit toujours être relatif à un concept
désigné, qu'il ne vaut que pour un esprit particulier qui s'examine à un stade particulier de
sa culture. « C'est cette double particularisation qui fait son intérêt » et Bachelard ajoute
en élargissant son point de vue : « C'est seulement après avoir recueilli l'album des profils
épistémologiques de toutes les notions de base qu'on pourra vraiment étudier l'efficacité
relative des diverses philosophies... Nous suggérerions volontiers une analyse
philosophique spectrale qui déterminerait avec précision comment les diverses
philosophies réagissent au niveau d'une connaissance objective particulière

J.-L. Destouches, physicien français, mort en 1980, créa en 1939 1a physico-logique. Il


écrit en 1954 : « J'ai été amené à adopter comme objet d'étude les théories elles-mêmes,
ainsi que la notion de théorie physique et non plus les phénomènes que, ces théories
cherchent à expliquer. J'ai ainsi été orienté vers des recherches épithéoriques pour
employer un terme emprunté au Pr Curry. Ces recherches se sont développées dans
différentes directions et forment les bases d'une discipline qu'on peut appeler la physico-
logique ».

Une partie importante de la physico-logique est constituée par la, recherche, des
conséquences de la conception prévisionnelle d'une théorie physique, c'est-à-dire de la
conception selon laquelle une théorie consiste au moins à calculer des prévisions. On peut
aussi construire une théorie générale des prévisions qui conduit déductivement des
résultats généraux précis, comme il y a deux types de théories physiques. Si on se place au
point de vue prévisionnel, les théories que l'on construit ne visent plus à décrire des
réalités intrinsèques mais seulement à relier d'une manière cohérente des résultats de
mesure pour pouvoir faire des prévisions.

Si on l'envisage de ce point de vue, la mécanique ondulatoire de L. de Broglie avec


interprétation probabiliste apparaît comme tout à fait naturelle. Toutes les conclusions
énoncées qui paraissent étranges sont des conséquences normales de l'intention
prévisionnelle. En effet, dans cette perspective la microphysique exige que les appareils
de mesure aient un rôle inéliminable dans la description théorique.

La recherche opérationnelle.

Durant la dernière guerre on a eu à traiter des problèmes militaires complexes et


comportant trop de paramètres pour être abordés par la voie purement scientifique. De là
est née la recherche opérationnelle, inventée par le physicien anglais Blackette et dont le
précurseur fut Napoléon, comme l'a montré P. Vendryes dans son livre « Vers la Théorie
de l'Homme » (1973), fondée initialement sur l'analyse mathématique des mécanismes
quantitatifs intéressant l'organisation, la gestion, l'action et la réaction en vue d'un but bien
défini. La recherche théorique des facteurs dominants et des lois régissant les phénomènes
quantitatifs à travers la théorie des jeux de Borel, les recherches économiques de Cournot
et Pareto, où le calcul des probabilités tient une place prépondérante, préludaient d'ailleurs
à cette discipline. Lorsque cette recherche inclut des paramètres variables, c'est toujours
dans la limite de contraintes définies. Ce préalable permet à l'analyse d'aborder
l'amélioration des méthodes ou des matériaux et même les conséquences engendrées par
la variation des conditions d'action et des objectifs considérés. Elle fournit donc tout à la
fois des éléments de prévision et de décision. C'est son aspect prospectif.

La valeur et l'efficacité de la recherche opérationnelle sont liées aux conditions de la


réalisation du modèle mathématique résumant le problème. Cette réalisation résulte
d'échanges entre techniciens et utilisateurs. Elle peut avoir plusieurs aspects comme
l'exploitation directe du modèle ou la simulation du phénomène sous forme accélérée, en
confrontant les réactions des utilisateurs et celle d'un ordinateur animé par le modèle. Si
l'animation de l'ordinateur présente des caractères difficiles, on utilise la technique des
jeux de guerre où se combinent attaques et ripostes. Mais l'élaboration de modèles
mathématiques ne peut se réaliser qu'aux conditions suivantes. Tout d'abord obtenir entre
techniciens et utilisateurs des échanges de vues compréhensifs, les premiers s'efforçant de
mettre leurs questions à la portée des seconds de manière à éviter toute équivoque. Il est
alors possible de réaliser une analyse objective et une exploration exhaustive du
phénomène pour en dégager des lois et les facteurs prépondérants, les critères de base en
fonction desquels on comparera les solutions offertes. A partir du moment où
l'information réciproque est estimée comme sûre et bien traduite, on est en droit d'élaborer
le modèle. Il est presque toujours soumis à trois sortes de simplifications. Tout d'abord on
est souvent conduit à négliger des aspects qui pour sembler accessoires conservent une
influence réelle dont parfois la valeur est sous-estimée. Lorsque la question se complique
en fonction de la densité du problème, elle conduit à des équations différentielles qui ne
sont pas toujours formellement intégrales d'où une certaine approximation dans les
formules utilisables. Enfin quand des phénomènes qualitatifs interviennent on ne peut les
traiter qu'imparfaitement par le biais de plusieurs méthodes d'approche, comme la
fréquence et la répétition des comportements conventionnels, tels qu'on les rencontre dans
les sondages d'opinion et dans les études sociologiques, les méthodes analogiques où on
extrapole une situation théorique pour prévenir un développement, une situation
historique, pour prévoir un développement technique ou politique corrigé par de nouvelles
contraintes, enfin les méthodes de simulation.

Cependant les normes d'ordre moral, social, passionnel ou historique, en leur aspect
irrationnel, tout ce que les réactions humaines enfin comportent d'intuitif, échappent
nécessairement au modèle faute de pouvoir se traduire en chiffres.

Le contrôle de la valeur du modèle est assuré non seulement par la mise à l'épreuve
préalable des hypothèses de base et des solutions possibles (quand c'est convenable), mais
encore par la mise à l'épreuve du modèle et des solutions qu'il fournit. Ces vérifications se
font sous deux formes : l'essai de fonctionnement du phénomène et la comparaison
rétrospective de ce fonctionnement nouveau avec des éléments tirés de l'expérience du
passé. Dans ce second cas, l'intervention d'un philosophe de l'histoire est indispensable,
parce que les expériences du passé présentées à l'état brut perdent leur signification,
lorsqu'un facteur essentiel a changé notablement de grandeur. La comparaison ne peut
donc s'effectuer qu'à la faveur des méthodes comparatives de la philosophie de l'histoire.

La recherche opérationnelle, en dépit de ses imperfections, comporte de nombreux


avantages. Elle contraint d'abord à une analyse rigoureuse des problèmes et permet
d'atteindre des résultats inaccessibles à la pure logique.

2. LA THÉORIE DES JEUX.

Il y a longtemps que les mathématiciens se sont intéressés au comportement humain du


jeu. Pascal y aperçut les premiers rudiments d'une théorie des probabilités. De nombreux
savants examinèrent ensuite la structure des jeux, faisant l'analyse de leurs possibilités
variées en cours de partie. L'idée d'étudier un jeu en tant qu'élaboration d'une suite de
décisions humaines, et de considérer les rapports globaux de ces suites de décisions à
l'issue de la partie, est cependant relativement plus récente. Esquissée depuis quelques
décennies, cette étude vient de prendre corps dans un ouvrage considérable de J. Von
Neumann et O. Morgenstern. L'importance de cet ouvrage réside non seulement dans le
centrage sur l'élément spécifiquement humain du jeu, mais encore dans l’ébauche d’un
lien relativement distinct avec les problèmes de la science économique. Car il y a un
aspect économique dans le jeu : on y intéresse les parties, et les joueurs ont dès lors à
s'assurer un maximum de gain ou à limiter le plus possible leurs pertes. C'est sur cet
aspect du jeu que notre attention va pour l'instant se concentrer. Ce qui est évidemment un
cas passablement éloigné de ce que montre la psychologie usuelle associant confusément
l'intérêt économique aux autres intérêts du jeu.

Quoi qu'il en soit, pour chaque joueur une partie d'un jeu déterminé, échecs, poker ou
autre, consiste en une suite de coups joués à leur tour et dans les règles, la tricherie étant
supposée exclue. Les différents partenaires font, chacun par leurs coups respectifs,
évoluer une certaine situation définie par la règle elle-même, depuis une situation d'entrée
jusqu'à une situation finale qui provoque le règlement des comptes entre les joueurs. Cette
évolution est discontinue : les « coups » qui l'entraînent forment une suite discrète. Elle
est aléatoire : chaque coup est joué par un joueur mis d'ordinaire en présence d'une
pluralité de possibilités entre lesquelles le choix se trouve fixé, tantôt par un simple effet
du hasard matériel (distribution de cartes, tirage de dés, etc.), tantôt par une décision
méditée (échecs, jeu de la levée aux cartes, etc.).

Dans les jeux usuels les possibilités ouvertes à chaque coup sont en nombre fini. Il y
existe en outre quelques règles assurant, directement ou, non, le caractère fini de la suite
des coups susceptibles de constituer une partie du jeu. De telle sorte que le dénombrement
de toutes les parties possibles est lui-même fini.

Supposons un joueur raisonnant à l'avance sur un jeu auquel il se propose de jouer avec
l'intention de gagner le plus possible. En droit tout au moins, il peut se représenter le
système complet des situations dans lesquelles il est possible à un joueur de se trouver au
cours d'une partie quelconque. Il peut de même, pour chaque situation, se figurer la suite
complète des possibilités qu'elle ouvre. Il peut alors — relativement à chacun des
partenaires du jeu, ses adversaires aussi bien que lui-même — construire l'ensemble, lui
aussi fini, de tous les schémas d'enchaînement de décisions qu'il est possible d'attribuer à
un joueur faisant une partie. On appelle ces schémas des stratégies. Examinant le tableau
d'ensemble de ses possibilités stratégiques de ses partenaires, le joueur peut tirer certaines
conclusions sur l'avantage ou l'inconvénient qu'il y a à se prescrire telle ou telle stratégie,
étant supposé que de leur côté les partenaires sont capables de poursuivre, de leur point de
vue, des méditations tout aussi approfondies.

La théorie met en évidence les faits suivants. Tout d'abord dans les jeux à deux
partenaires, lorsque les situations faites aux joueurs par l'évolution de la partie comportent
la connaissance de tous les éléments du coup à jouer, il existe, pour l'un des joueurs, au
moins une stratégie infailliblement gagnante, ou sinon capable de faire partie nulle, quelle
que soit la stratégie que lui oppose son partenaire. Dans cette dernière hypothèse, le
partenaire peut lui aussi toujours faire partie nulle. Tel est le cas des échecs. Dans le cas
où les situations faites aux joueurs leur laissent ignorer une partie des éléments du coup —
ainsi en est-il ordinairement des jeux de cartes — il n'y a plus habituellement de stratégie
décisive quel que soit le comportement du partenaire. Mais il existe pour chaque joueur
des façons de varier ses stratégies au cours d'une suite de parties, qui rendent maximum
l'espérance mathématique de gain.

Si cependant le nombre des joueurs est supérieur à deux, il n'existe à l'ordinaire ni


stratégie, ni système de variations stratégiques susceptibles de rendre maximum
l'espérance mathématique de gain du joueur isolé. Tout dépend en effet de la physionomie
prise par la combinaison des stratégies que réalisent tous les autres joueurs pris ensemble.
Or cette combinaison est le fruit d'un concours de libertés se faisant au hasard, à moins
qu'elle n'ait été intentionnellement convenue, avant la partie, par les joueurs dont elle est
le fait. Comme tous les joueurs se trouvent pour leur propre compte dans une situation
semblable, il apparaîtra, pour finir, que certaines associations définies de joueurs peuvent
s'assurer collectivement une espérance de gain supérieur à la somme des espérances que
chacun de leurs membres pourraient s'assurer individuellement. Le jeu tendra alors de lui-
même à faire apparaître des tractations entre joueurs faites préliminairement aux parties.
Ces tractations auront pour objet la constitution de groupes coordonnant au mieux les
décisions des individus.

C'est précisément à l'étude des points d'équilibre possibles en de pareilles circonstances


que la « Théorie des jeux » se consacre en majeure partie. On pourrait croire cette étude
relativement aisée. On ne tarde pas, en réalité, à s'apercevoir de son extrême complexité.
Seul le cas à trois joueurs est complètement débrouillé à l'heure actuelle.

A première vue, on se demandera sans doute quel est l'intérêt de ces considérations fort
abstraites, et somme toute assez rarement applicables, fût-ce à la pratique concrète de nos
jeux. Car leur complexité est trop grande déjà pour qu'il nous soit possible, avec nos
moyens ordinaires, de faire l'étude complète de leurs virtualités stratégiques. L'importance
de la théorie des jeux vient cependant de ce qu'elle permet pour la première fois de
représenter distinctement la liaison entre une certaine finalité « économique », le gain, et
un schéma d'actions humaines coordonnées en fonction tant de certaines conditions
matérielles que d'autres initiatives humaines. Le jeu est ainsi une sorte d'économie ultra-
simplifiée, se définissant dans des univers finis et discrets, et c'est pour l'instant la seule
approximation de la réalité économique que nous puissions considérer comme
scientifiquement bien définie sur le plan théorique. Approximation à coup sûr très
élémentaire. Elle suffit cependant à constituer un pas en avant, très caractéristique, pour la
science des processus humains.

Note sur le « jeu de guerre » (Kriegspiel) de Von Neumann.

Ce jeu a été mis au point par Von Neumann lors des travaux qui ont fait suite à son
célèbre ouvrage sur la Théorie des Jeux et été réalisés pour le département de la Défense
des États-Unis. Il cherche à résumer dans des éléments les plus simples possibles l'aspect
d'une guerre moderne vers 1950 entre deux états ou deux coalitions. Il prend donc en
considération non plus tellement les armées et leur position stratégique sur un terrain, que
les aspects économiques et le potentiel industriel des deux partenaires.

On résume le potentiel agressif d'un pays par l'ensemble des éléments suivants qui
peuvent être présentés par des carrés de papier de couleur ou des pièces d'échecs :
— R correspond au potentiel constructif d'un pays,
— A correspond au potentiel de protection de ce pays (défense anti-aérienne,
fortifications, protection des populations industrielles, défense contre la propagande
adverse, contre-espionnage. etc.),
— F correspond à l'armée proprement dite, (potentiel militaire, corps d'armées, etc.),
— L correspond aux forces mobiles, c'est-à-dire essentiellement à l'aviation ou la
marine, susceptibles de déplacements extra-rapides et de réaliser des destructions sur le
potentiel de construction, sur les armées ou sur les communications,
— K, enfin, à l'ensemble des systèmes de communication, le terme de «
communication » couvrant ici aussi bien les communications matérielles (transports des
biens ou des personnes, des armées ou des objets d'un point à un autre, à l'exception de ce
qui concerne « L ») que les communications de messages ou les liaisons.

On estime que les deux pays ne sont susceptibles d'entrer en conflit que quand ils sont de
forces égales et que la politique ou la diplomatie ont peur rôle de retarder les actions
jusqu'à ce que ce moment soit venu. Il y a donc de part et d'autre les mêmes éléments en
présence : c'est le rôle de la préparation à la guerre que de prévoir l'égalité dans chaque
pays des potentiels militaires, industriels, de protection ou de communications.
Les mouvements des éléments représentent les actes élémentaires de la tactique, ils
peuvent aboutir à deux types de résultats, soit :
— réduire, c'est-à-dire détruire un élément adverse et par là l'éliminer du jeu, soit,
— produire, c'est-à-dire faire apparaître un élément qui n'existait pas.

Enfin, il est possible de protéger, c'est-à-dire sans réduire ni produire empêcher toute
action de l'ennemi.

L'étude des conditions de fonctionnement d'un pays industriel au cours des guerres,
fournit les équations suivantes :
2 F réduit 1 F ou 1 A,
2 L réduit 1 F ou 1 A ou 1 K ou 1 R,
3 L réduit 1 L,
3 R produit 1 L ou 1 R ou 1 K ou 1 A,
1 A protège 1 R ou l A ou l F ou 1 L ou 1 K.

Le jeu se termine théoriquement quand toutes les unités d'un jeu partenaire ont été
éliminées du jeu par l'autre ; on peut, par exemple, effectuer ce jeu en plaçant deux
équipes de chaque côté d'une table, chaque équipe représentant l'état-major, et en
disposant sur la table des pions ou des papiers de formes différentes pour exprimer leur
nature et des couleurs différentes pour exprimer leur appartenance, les éléments retirés du
jeu sont mis à part et comptés au fur et à mesure par un personnage observateur qui est
l'historien de la partie.

Ce jeu a été très abondamment pratiqué dans les milieux d'état-major et dans les instituts
de recherche stratégique dans les années comprises entre 1945 et 1955.

3. — LA STRUCTURE ABSOLUE.

L'écrivain Raymond Abellio, polytechnicien de formation, puis phénoménologue de


l'ésotérisme, a poursuivi des recherches sur les structures mentales dans les années 1950
avec son Cercle de métaphysique, puis il les a poussées et mises au point dans un livre
paru en 1965 « La structure absolue ». Il montre d'abord que la conscience transcendantale
est conscience de conscience. Si la philosophie classique a oscillé du réalisme à
l'idéalisme et inversement, c'est que chaque philosophe s'est vu sous un aspect dualiste,
comme sujet devant un monde d'objets, un monde objectif. L'historique du dualisme a été
fait par S. Pétrement. En quelque sorte, donner dès lors la priorité au sujet ou à l'objet
devenait une question d'opinion, de choix. D'où les querelles d'écoles. Husserl, pour sa
part, a vu, comme un peintre, que l'objet se situe sur un fond, qui est le fond du monde ;
autrement dit, du côté de l'objet, il y a déjà une dualité : le sujet ne se trouve plus
confronté à un objet isolé, mais à la dualité de celui-ci et du fond sans lequel il
n'apparaîtrait pas. Le monde, dit Raymond Abellio, n'est pas la somme des objets, mais la
condition de leur apparition. Mais ce que n'a pas vu Husserl, c'est qu'il y a également une
dualité du côté du sujet : je perçois un objet par l'un ou plusieurs des organes de mes sens,
et c'est ainsi que mon œil, s'il s'agit d'un objet simplement perçu de façon visuelle, émerge
sur le fond de mon corps, auquel il appartient, exactement comme l'objet en face de moi
émerge sur le fond du monde ; il y a donc une double dualité : le rapport de deux rapports.
Du sujet à l'objet, il ne s'agit plus, dès lors, d'un simple rapport, mais d'une proposition :
l'objet est au monde ce que mon œil est à mon corps. Par suite, à la dualité se substitue
une quaternité, et nous pouvons quadraturer la dualité objet-monde sur la dualité œil-
corps, la crucifier. Nous allons voir à présent comment fonctionne cette dialectique, ou
plutôt cette génétique. Dans un premier temps, le monde est passif, il vit d'une vie sourde
dont rien n'émerge. Puis il devient actif, est produit un objet dans une première ek-stase.
Dès lors, le monde devient passif, et c'est l'objet qui est devenu actif ; il excite mon œil,
mais celui-ci est encore passif, il ne voit pas l'objet. Mais celui-ci, en quelque sorte,
s'obstine et mon œil va s'éveiller et cet objet va s'imposer à mon œil qui va le percevoir.
Jusqu'à présent, mon corps était passif, mais, sous l'impulsion de ma perception oculaire,
i1 devient actif, en ce sens que, dans une troisième ek-stase, mon œil a transféré cet objet
vu vers mon corps qui, dans une quatrième ek-stase, va en faire un outil qu'il va rabattre
sur le monde afin de susciter l'apparition de nouveaux objets. Et le cycle recommence.
Telle est la part « horizontale » de la structure de la perception.

Nous avons donc là, une double rotation. Mais, « verticalement », nous voyons
l'apparition de deux produits : vers le bas, en ampleur, nous avons l'accumulation des
outils dans mon corps, ces outils n'en étant que le prolongement ; vers le haut, en
intensité, nous avons l'unification du sens du monde. Autrement dit, plus j'accumule les
outils dans mon corps, plus j'acquiers d'expérience, plus le monde prend de sens pour moi.
Comme le dit Raymond Abellio, les cycles diachroniques horizontaux entraînent la
corrélation de l'ampleur de la constitution des outils dans mon corps et de l'intensité de la
donation de sens que je fais au monde. Au centre de la quadrature se trouve l'égo
transcendantal.

Nous ne nous trouvons donc plus en présence d'une dualité, ni même d'une quaternité,
mais d'un sénaire, et même d'un sénaire-septénaire si l'on tient compte de la position
centrale de l’ego. C'est là un « modèle » de l'ensemble dont nous parlions plus haut.

Toutefois, il est capital de noter qu'on ne saurait appliquer arbitrairement une telle
méthode. Il faut d'abord définir un champ pertinent d'application de la structure absolue.
Pour prendre un exemple, si la dualité homme-monde constitue un tel champ, il n'en est
nullement de même de la dualité constituée par un fragment de l'homme et un fragment du
monde : il est impossible de structurer un bras isolé et un rocher ; c'est là une pseudo-
structure morte.

Ensuite, une fois déterminé le champ, il importe de savoir en nommer les polarités. Dans
le champ de la perception, le sujet et l'objet vont se subdiviser en quatre polarités, puis en
six comme nous l'avons vu. C'est ainsi que dans le champ social, qui est pertinent, la
dualité de l'administration des choses et du gouvernement des hommes va fournir une
série de sénaires, ainsi d'ailleurs que, dans le champ scientifique qui lui est homologue,
celle de la théorie et de l'expérimentation.

Il n'existe aucune règle, ni pour déterminer un champ, ni pour nommer les polarités, et
c'est parce qu'il faut insister sur la distinction du compris et du vécu qu'il faut vivre la
structure absolue pour pouvoir l'appliquer, au sens strict du terme — à tel champ pertinent
convenablement polarisé dans le cadre du même vécu. Qu'il n'y ait aucune règle ne saurait
surprendre : la structure absolue est intemporelle et ne peut, dès lors, être saisie par le
langage, qui est engagé dans le temps : déterminer le champ pertinent et nommer
correctement les polarités sont l'œuvre de l'ego transcendental, et non du Moi naturel
amateur de recettes.

Université de la structure absolue.

Il serait difficile de montrer, en si peu de place, l'universalité de la structure absolue à


laquelle Raymond Abellio a consacré un ouvrage de plus de 500 pages. Disons
simplement que, moyennant une réflexion, une méditation en soi et pour soi, il est
possible de constater que le sénaire-septénaire est un invariant universel.

On a vu que le champ social et le champ scientifique sont pertinents, moyennant les


dénominations correctes des polarités. Il est une infinité de tels champs, la cellule vivante,
par exemple, ou l'atome. C'est là l'affaire de biologistes et de physiciens, à condition qu'ils
soient phénoménologues. Dans le premier appendice de « La structure absolue », Abellio
étudie la structure des sciences et montre comment on peut déduire leur genèse par la
méthode de la structure absolue. Disons simplement que, moyennant une réflexion, une
méditation en soi et pour soi, il est possible de constater que le sénaire-septénaire est un
invariant universel.

4. -- LOGIQUE DE LA SIMPLICITÉ, d'A. Lamouche.

C'est André Lamouche, philosophe français contemporain, qui développe une logique de
la simplicité retrouvant certains principes énoncés au XIXe siècle par le philosophe
allemand Avenarius.

Lamouche remarque qu'en vertu de sa polyvalence et de son universalité ce principe est


susceptible d'être présenté sous des formes différentes encore qu'équivalentes. Du point de
vue logique et sémantique, on peut l'énoncer ainsi : il y a toujours recherche de simplicité
des valeurs relatives maximales entre la valeur et la signification des mots qui sont
associés de proche en proche dans la construction logique comme dans l'évolution
linguistique. On peut l'énoncer ainsi : la recherche des rapports inter-notionnels et
interrelationnels de simplicité maximum.

Du point de vue causal ce principe s'énonce : toutes choses égales d'ailleurs, il y a toujours
le rapport le plus simple possible entre la cause et l'effet. Ce principe maintes fois
appliqué par les chercheurs sous des formes diverses peut seul suppléer à l'insuffisance
reconnue du principe d'identité causal. Il existe, de même, un énoncé probabiliste du
principe de simplicité, la probabilité d'un phénomène simple est plus grande que celle d'un
phénomène compliqué. Le calcul des probabilités tout entier et ses applications
constituent des illustrations implicites de ce principe.

Mais en dépit de leur intérêt les énoncés qui précèdent n'atteignent pas le fond du
problème. D'une part en effet ils ne mentionnent pas le caractère ambifonctionnel du
principe de simplicité, d'autre part ils ne font pas ressortir le parallélisme entre l'énoncé
cosmique et l'énoncé psychique de ce principe, parallélisme qui est le fondement d'une
logique naturelle et universelle de simplicité.

En résumé ces énoncés se formulent ainsi :


Énoncé cosmique. Le dynamisme universel obéit à une double tendance alternée de
l'assimilation-extension et de la composition-coordination. Ces deux tendances
complémentaires sont régies par un critère de simplicité relative maximale s'exerçant de
proche en proche dans l'espace et dans le temps.

Énoncé psychique. Les phénomènes psychiques de toute nature (réflexes, sensations,


perceptions, images et souvenirs, sentiments, idées, concepts), tendent à s'associer suivant
un double processus rythmiques d'assimilation-extension et de composition-coordination
régi de proche en proche par une condition de simplicité relative maximale.

Ainsi que Lamouche l'a établi dans ses œuvres, c'est le parallélisme entre ces deux
énoncés, à savoir l'applicabilité du principe ambifonctionnel de simplicité aux trois étages
biologique, cosmique et psychique de l'évolution qui est à l'origine de la communauté de
rythme entre l'activité infrastructurelle du Cosmos et celle qui sous-tend notre propre
activité psycho-physiologique. Et seule l'isorythmie entre le déterminisme cosmique et le
processus dualiste de l'association psychique s'explique par l'existence d'une logique
cohérente et son accord possible avec la réalité.

Dans le domaine conceptuel le plus simple, celui de la quantité, le principe de simplicité


est susceptible de recevoir un énoncé parallèle aux énoncés cosmique et psychique. Voici
cet énoncé mathématique : « Les normes mathématiques (notions, relations, structures et
fonctions typifiées) peuvent être engendrées logiquement à partir des éléments
conceptuels les plus simples (l'unité et le nombre entier) par un double processus alterné
d'assimilation-extension et de composition, coordination régie de proche en proche par la
condition de simplicité relative maximale ».

Cet énoncé renferme en puissance une axiomatique mathématique de la simplicité. C'est


en récapitulant l'histoire des sciences notamment dans la période critique qui s'est produite
à la fin du siècle dernier et au début de celui-ci que Lamouche a remarqué le parallélisme
que présente l'évolution des sciences physico-chimiques et celle des mathématiques du
point de vue du critère de simplicité. Les unes comme les autres tendaient en effet,
séparément mais simultanément à s'arithmétiser. Dans ces deux branches connexes de la
connaissance scientifique, le nombre entier se révélait comme jouant un rôle déterminant
dans la genèse des concepts mathématiques et dans celle des phénomènes physiques
parallèlement. Or, de toutes les normes mathématiques le nombre entier est celle dont la
structure et les lois opérationnelles satisfont à la condition de simplicité maximale.

5. — LA NAISSANCE DES THÉORIES INTER-DISCIPLINAIRES.

Il y a une quarantaine d'années, la biologie était entrainée dans la controverse mécaniste-


vitaliste. La démarche mécaniste consistait essentiellement à décomposer les êtres vivants
en parties et en processus partiels. L'organisme était un agrégat de cellules, la cellule un
assemblage de colloïdes et de molécules, le comportement une somme de réflexes
conditionnés et inconditionnés, etc. L'organisation de ces différentes parties au service de
la maintenance de l'organisme du même ordre était soit omise, soit, selon la théorie
vitaliste, explicable seulement par l'intervention de facteurs du genre de l'âme ou de petits
lutins, errant dans la cellule ou dans l'individu... ce qui, à l'évidence, n'était rien d'autre
qu'une déclaration de faillite de la science. Dans ce contexte von Bertalanffy biologiste
hongrois fut conduit à soutenir le point de vue dit organismique. En bref, il exprime le fait
que les êtres vivants sont des choses organisées et que, en tant que biologistes, nous avons
quelques découvertes à faire à leur sujet. Bertalanffy a essayé de réaliser ce programme
organismique dans des études variées sur le métabolisme, la croissance et la biophysique
de l'être vivant et, pour ce faire, il a présenté une méthode sous le nom de théorie des
systèmes ouverts et des états stables : théorie qui correspond principalement a une
extension de la physico-chimie conventionnelle, de la cinétique et de la
thermodynamique. Il apparaissait, cependant, que Bertalanffy ne pouvait plus s'arrêter sur
cette voie, si bien qu'il fut ultérieurement amené à une plus large généralisation qu'il
nomma : « la théorie générale des systèmes ».

Depuis cette date, 1937, et après une période où il a connu ce que Gauss appelait la
« clameur des béotiens », un changement de climat intellectuel est survenu et un grand
nombre d'hommes de science ont suivi de semblables cheminements de pensée. Si bien
que la théorie générale des systèmes, après tout, n'est pas aussi solitaire ou
idiosyncrasique que son auteur ne le croyait, mais correspond plutôt à l'une de ces
tentatives parallèles que l'on peut aujourd'hui découvrir en un bref survol.

La cybernétique se fonde sur le principe des rétroactions et des enchainements circulaires


de causalité qui règlent les mécanismes intervenants dans les comportements de quête et
l'autocontrôle. La théorie de l'information introduit le concept d'information comme une
quantité mesurable, grâce à une expression superposable à celle de l'entropie négative en
physique, et développe les principes de sa transmission. La théorie des jeux que nous
avons étudiée analyse dans un nouveau cadre mathématique la compétition rationnelle
entre deux ou plusieurs antagonistes qui cherchent à obtenir le maximum de gain et le
minimum de perte. La théorie de la décision, de la même manière, étudie les choix
rationnels au sein des organisations humaines, et s'appuie sur l'examen d'une situation
donnée et de ses conséquences possibles. La topologie inclut des problèmes non métriques
tels que la théorie des réseaux et des graphes. L'analyse factorielle isole
mathématiquement les facteurs qui interviennent dans les phénomènes à multi-variables
en psychologie et autres disciplines. Enfin, la théorie générale des systèmes, au sens strict,
part d'une définition d'un système envisagé comme un complexe de composantes en
interaction, comme un ensemble organisé, et elle essaie d'établir des concepts
caractéristiques : tels que celui d'interaction, de somme, de mécanisation, centralisation,
compétition, finalité, etc., elle tente, enfin, de les appliquer à des processus concrets.

Dans son sens large, la théorie générale des systèmes se présente alors comme une
science fondamentale, avec ses correspondances dans les domaines de l'application,
quelquefois rassemblées sous le nom général de science des systèmes. Ce prolongement
est étroitement solidaire de l'automation moderne, et on y distingue : « l'engineering », la
recherche opérationnelle... En effet, une illustration très simple de la nécessité d'étudier
les systèmes homme-machine est, par exemple, fournie par les voyages. N'importe qui
comprendra facilement à quel point, après avoir traversé des continents à une incroyable
vitesse grâce aux avions à réaction, mais après avoir aussi perdu des heures sans fin à
attendre, à faire la queue en foule dans les aérodromes, à quel point donc les techniques
physiques du voyage aérien sont perfectionnées, tandis que les techniques « d'organisation
» en sont encore à leur niveau le plus primitif.
Toutes ces théories ont un certain nombre de traits communs. 1° Elles sont d'accord pour
souligner que quelque chose doit être fait au sujet des problèmes caractéristiques des
sciences biologiques et comportementales qui ne peuvent être traitées par la théorie
physique conventionnelle. 2° Elles introduisent des concepts et des modèles nouveaux
(quelquefois même matériels) à côté de ceux fournis par la physique : par exemple, celui
de système généralisé, ou celui d'information comparée à l'énergie qu'utilise la physique.
Ces modèles sont alors interdisciplinaires et transcendent les divisions habituelles de la
science. 3° Elles s'intéressent particulièrement aux problèmes à plusieurs variables. 4°
Elles permettent aussi une économie de travail, car un ensemble de principes peut être
transféré d'un domaine à un autre, sans qu'il soit nécessaire de renouveler l'invention
comme cela arriva dans le passé. 5° Enfin, et c'est peut-être le plus important, les concepts
de totalité, d'organisation, de téléologie et d'orientation qui semblaient, dans la science
mécaniste, a-scientifiques ou métaphysiques, sont aujourd'hui pris au sérieux et
justiciables d'une analyse scientifique.

Toutes ces voies d'approche ne sont pas, et ne doivent pas être, envisagées d'une manière
totalitaire. Un des aspects importants des modifications survenues dans la pensée
scientifique moderne, réside dans la prise de conscience du fait qu'il n'existe aucun
système unique susceptible d'embrasser tout l'univers. Les constructions scientifiques ne
traduisent que certains aspects ou certaines perspectives du réel. Cela s'applique même à
la physique théorique qui, loin d'être une représentation métaphysique de la réalité ultime
(comme le matérialisme passé le proclamait, et comme le positivisme moderne l'implique
encore), n'est qu'un modèle parmi d'autres, et, ainsi que le montrent ses récents
développements, ni exhaustif ni unique. Les diverses théories des systèmes sont aussi des
modèles qui reflètent différentes images. Elles ne s'excluent pas mutuellement et même,
souvent, se combinent dans certaines de leurs applications.

Et loin d'être rejeté, l'espoir demeure d'une future synthèse au sein de laquelle les diverses
approches actuelles vers une théorie de la totalité et de l'organisation pourront être
intégrées et unifiées.

Les méthodes de recherche

Le cybernéticien anglais Ashby a nettement souligné les deux voies possibles et les
méthodes générales de l'étude des systèmes. « L'une, est déjà bien développée dans les
mains de Von Bertalanffy et de ses collaborateurs. Ils prennent le monde comme ils le
trouvent, examinent les systèmes variés qu'il comprend — zoologique, physiologique, etc.
— et dressent alors un compte rendu des régularités observées qui s'y maintiennent. Cette
méthode est essentiellement empirique. La seconde méthode procède à l'inverse. Au lieu
d'étudier d'abord un système, puis un autre, enfin un troisième et ainsi de suite, elle va à
l'autre extrême, considère l'ensemble de tous les systèmes concevables et réduit ensuite
cet ensemble à une taille plus raisonnable. C'est la méthode que j'ai récemment suivie ».

Il est facile de voir que toutes les recherches concernant les systèmes suivent finalement
l'une ou l'autre de ces méthodes ou une combinaison des deux, qui ont chacune leurs
avantages et leurs inconvénients.
a) La première méthode est empirico-intuitive. Elle a l'avantage de rester assez proche de
la réalité et peut aisément être illustrée et même vérifiée par des exemples pris dans les
différentes disciplines scientifiques. D'un autre côté, elle peut apparaître naïve et
anarchique aux esprits qui attendent d'elle une élégance mathématique et une force
déductive dont elle est dépourvue.

b) La voie déductive fut donc suivie par Ashby. Ce dernier s'interroge sur la notion
fondamentale de machine et en vient à une conception moderne de « machine avec facteur
d'entrée », et constituée par un ensemble S d'états internes, un ensemble I de facteurs
d'entrée, et une application f dans S du produit I x S. On en arrive ainsi aux deux
significations possibles des systèmes auto-organisateurs selon Ashby.

Dans un premier cas, le système naît avec des éléments séparés qui se modifient ensuite
pour s'articuler les uns aux autres : exemple, les cellules embryonnaires qui, tout d'abord,
n'exercent que peu, ou pas du tout, d'effet les unes sur les autres et qui s'unissent
ultérieurement pour constituer le système nerveux hautement interdépendant. C'est un
système « évoluant d'un état inorganisé à un état organisé ».

La seconde signification envisage le système comme « modifiant un mauvais état


d'organisation en un état meilleur ». Exemple : un enfant que sa structure cérébrale
conduit tout d'abord à l'attirance du feu, tandis qu'une nouvelle organisation l'entraîne à
l'éviter ; ou bien encore, un pilote automatique et un avion, tout d'abord couplés en une
rétroaction positive dangereuse, qu'on inverse ensuite. Dans ces deux cas, l'organisation
primitive étant défectueuse, le système ne s'avère « auto-organisant » que dans la mesure
où un changement est automatiquement réalisé. Mais, ajoute Ashby, « aucune machine ne
peut être, en ce sens, auto-organisante ». Car l'adaptation signifie que l'application f
(défectueuse) se modifie en g (salutaire), donc que l'organisation varie en fonction du
temps. « Ce changement ne peut être attribué à aucune cause de l'ensemble S. Il doit venir
de quelque agent externe, agissant sur le système comme un facteur d'entrée ». En d'autres
termes, pour être auto-organisatrice, la machine S doit être couplée à une autre machine.

Ce bref aperçu permet de remarquer les limites de cette seconde voie d'approche. La
définition moderne des systèmes qui, selon Ashby, correspond à une « machine avec
facteur d'entrée » introduit un modèle à caractère assez particulier : le modèle
cybernétique d'un système ouvert à l'information mais clos au transfert d'entropie. Cela
devient net quand cette définition est appliquée aux systèmes auto-organisants dont les
plus importants ne peuvent avoir aucune place parmi les modèles d'Ashby. Sont ainsi
exclus tous les ensembles se structurant eux-mêmes par voie de différenciation
progressive, évoluant d'états de faible complexité vers des états de très haute complexité.
Et ce sont pourtant les formes les plus remarquables d'auto-organisation, apparentes dans
l'ontogenèse, probables dans la phylogenèse et, certainement aussi, valables dans de
multiples organisations sociales. Pour de telles structures, il n'est pas question de bonne
ou de mauvaise organisation mais d'augmentation de la différenciation et de la
complexité, qu'elle soit utile ou non. Ce critère est objectif et, au moins en principe,
justifiable de mesures (en termes d'entropie décroissante, ou d'information). L'affirmation
d'Ashby selon laquelle « les changements ne peuvent être attribués à aucune cause interne
à l'ensemble S, mais doivent survenir de quelque agent extérieur, de quelque facteur
d'entrée », revient donc à exclure les systèmes auto-différenciants.
Or, la raison pour laquelle de tels ensembles ne sont pas conformes aux machines d'Ashby
est patente. Les systèmes auto-différenciants qui évoluent vers une complexité de plus
haut niveau (entropie décroissante) ne peuvent exister, pour des raisons
thermodynamique, que comme systèmes ouverts : c'est-à-dire qui importent en quantité
suffisante une matière riche en énergie libre pour compenser l'accroissement d'entropie dû
aux processus irréversibles internes aux systèmes (ils importent ainsi une entropie
négative). Pourtant, nous ne pouvons pas dire que le changement vient de quelque agent
externe, d'un facteur d'entrée. La différenciation, à l'intérieur d'un embryon en
développement et d'un individu, est due à ses lois internes d'organisation, et le facteur
d'entrée (la consommation d'oxygène qui peut varier quantitativement, ou la nutrition qui
peut varier qualitativement dans les limites d'un très large éventail) rend seulement cette
organisation énergétiquement possible.

Tout cela fut, d'ailleurs, ultérieurement illustré par des exemples complémentaires fournis
par Ashby, imaginons une calculatrice électronique digitale, effectuant des multiplications
au hasard. La machine tendra à livrer des nombres pairs (parce que les produits pair x
pair, aussi bien que pair x impair donnent des nombres pairs) et éventuellement seuls les
zéros « survivront ». Ashby cite aussi le dixième théorème de Shannon, établissant que
(dans un circuit d'information) si un canal de correction possède une capacité H, on peut
enlever un montant H d'équivocation mais guère plus. Ces deux exemples montrent le
travail des systèmes clos. L'évolution de la calculatrice se fait vers la disparition de la
différenciation, et l'établissement d'une homogénéité maximale (analogue au second
principe des systèmes clos). Le théorème de Shannon, pareillement, concerne les systèmes
clos où aucune entropie négative ne réside. Comparée à l'organisation d'un système
vivant, la matière importée par la nutrition ne transporte aucune information mais du «
bruit ». Néanmoins, son entropie négative est utilisée pour maintenir, et même pour
accroître, le contenu informationnel du système. C'est une situation apparemment non
prévue par le dixième théorème de Shannon qui nee traite pas du transfert d'information
dans les systèmes ouverts avec transformation de matière. Dans ces deux cas, l'organisme
vivant (et les autres systèmes comportementaux ou sociaux) n'est pas une machine
d'Ashby parce qu'il évolue vers une différenciation et une hétérogénéité croissantes, et
parce qu'il peut rectifier le « bruit » à un plus haut degré que ne peut le faire un canal de
communication inanimé. Cependant, tous ces cas ne sont que les conséquences du
caractère organismique des systèmes ouverts, et il souligne simplement qu’il n’y a pas de
voie royale pour la théorie générale des systèmes. Cette dernière devra se développer dans
une intrication de méthodes empiriques, intuitives et déductives. Car, si la démarche
intuitive laisse beaucoup à désirer quant à la rigueur logique et à la perfection, l'approche
déductive se heurte à la difficulté de savoir si les termes fondamentaux ont été
correctement choisis.

Dans l'esprit de son créateur, la théorie générale des systèmes; doit être conçue comme
une hypothèse de travail. Homme de science praticien, il lui semble que la fonction
principale des modèles théoriques est d'interpréter, de prédire et de commander les
phénomènes jusqu'ici inexpliqués. D'autres peuvent tout aussi légitimement insister sur
l'importance d'une approche axiomatique, et citer à cet effet des exemples tels que la
théorie des probabilités, les géométries non euclidiennes, plus récemment encore les
théories de l'information et des jeux qui furent primitivement élaborées comme des
domaines mathématiques déductifs, et ensuite appliqués à la physique ou à d'autres
disciplines scientifiques. Il n'y aura pas de dispute sur ce point. Mais, le danger de toutes
les voies poursuivies est de considérer trop précocement un modèle théorique comme clos
et définitif. Un danger particulièrement important pour une discipline comme celle des
systèmes généraux, qui tâtonne encore à la recherche de ses fondements exacts.

***

EN CONCLUSION, comme nous le disions en commençant, la science classique a subi


de profonds bouleversements et a tendu à être remplacée par des disciplines qui sont à la
fois théoriques et pratiques. Leur valeur est fondée, essentiellement sur l'action : ce sont
selon une expression de Bachelard des phénomènes techniques. Nous avons essayé dans
ce modeste essai d'en parcourir quelques-unes. Mais certaines comme la théorie des
probabilités ont déjà été explicitées. Je pense à Vendryes et sa Théorie de l'homme (1974)
et bien avant à son livre malheureusement méconnu : la Probabilité en histoire (1953). La
fécondité de ces nouveaux points de vue est immense et nous espérons que nos lecteurs
utiliseront souvent ces quelques esquisses...

L.-J. DELPECH,
Professeur honoraire à la Sorbonne.
Président de la Société française de Cybernétique et
des Systèmes généraux.

You might also like