Spécial web - L'événement

Sciences en Fête
Vous avez dit complexité?

par Ivan Lavallée


Texte intégral de l'article paru dans Regards - octobre 1997 - texte intégral

Ivan Lavallée

Docteur d'Etat es Sciences, Professeur d'informatique à l'université de Paris 8 Saint-Denis après avoir successivement enseigné à Paris XII et au CNAM et avoir dirigé l'action de recherche PARADIS à l'INRIA (équipe en cours de reconstitution à Paris 8).
Auteur, dans des revues, de nombreux articles notamment: 01 Informatique, Temps Réel, la Pensée, Quaderni et Regards.
Il a également participé à une émission télévisée sur la 5, UNISAT, en 1993, et a écrit de nombreux livres parmi lesquels "L'homme et les techniques", Messidor, Paris 1991, "Algorithmique parallèle et distribuée", Hermès, Paris 1991.


Le terme de complexité est souvent utilisé dans notre langage quotidien. Monde complexe, situation complexe, film complexe, oeuvre complexe...
Nous essaierons de cerner le concept de complexité à travers ses diverses acceptions, informatique, mathématique, biologique, artistique. Nous verrons en quoi l'oeuvre humaine est tentative de maîtrise de ces complexités, et comment se situe l'informatique dans cette démarche, avec ses différents domaines, de l'algotithmique à ce que certains appellent l'intelligence artificielle, terme sur lequel nous reviendrons.


C'est avec l'apparition de l'informatique en tant que science (1936) et les travaux d'Alan Mathison Turing (1912-1954) que le concept de complexité a commencé à émerger scientifiquement. Par la suite, une autre façon, plus mathématique (1950 env.), due à Alexis Nikolaevitch Kolmogorov (1903-1987), le père de la théorie moderne des probabilités (Théorie de la mesure...) est apparue basée sur des aspects probabilistes (et de théorie de l'information) et sur la théorie des automates.

La complexité « à la Turing », dite aussi complexité algorithmique est donnée pour un programme par le temps de calcul nécessaire à celui-ci pour résoudre un représentant de la classe de problèmes pour laquelle il a été conçu, dans le pire des cas (1). Ce qui est important c'est de savoir alors exprimer le temps de calcul d'un programme en fonction de la taille (i. e. le nombre de paramètres) du problème à résoudre, lorsqu'on fait tendre cette taille vers l'infini.

Ainsi on a des algorithmes dont le temps de calcul s'exprime en logarithme du nombre de variables, d'autres en fonction polynomiale, d'autres encore en fonction exponentielle.

C'est la complexité asymptotique qui est intéressante, c'est-à-dire l'expression de la variation du temps en fonction (ou plutôt son terme de degré plus élevé) de la taille des variables (la taille de l'instance) lorsqu'on fait tendre cette taille vers l'infini. La complexité d'une classe de problèmes est alors donnée par la complexité du meilleur algorithme résolvant tous les problèmes de la classe.

La complexité « à la Kolmogorov » pourrait être qualifiée de complexité descriptionnelle ou informationnelle. La complexité d'un objet est alors donnée par la longueur du plus petit énoncé qu'on peut donner pour décrire cet objet, ce qui suppose que tout le monde soit d'accord sur l'alphabet utilisé. En d'autres termes, c'est la quantité d'information inhérente à l'objet. Ainsi, une séquence aléatoire est de complexité maximale puisque réductible à aucune autre description qu'elle-même. Ainsi, une séquence aléatoire est de complexité maximale puisque réductible à aucune autre description qu'elle-même. Par exemple, la suite définie par : un suivi de trente milliards de zéros et terminée par un a-t-elle une complexité moindre que la suite :
vbhqihhvvevsacvsacvsGQSghHNNNWjjjkjgbxiatzyhgbx 321°) &,;,q, ? h.

Le pont entre ces deux théories est assez facile à faire, mais il sort du présent cadre (c'est tout de même assez complexe).

Ainsi, on a là les bases d'une théorie générale de la complexité. Le problème dans la théorie de l'évolution et dans le propos de S. J. Gould c'est précisément ce manque de définition rigoureuse de la complexité des organismes vivants et surtout de lien avec la théorie mathématique de la complexité. Ce problème se pose tout au long des pages de l'Eventail du vivant où S. J. Gould parle plusieurs fois de descriptions des vertèbres (P. 250)et description de telle ou telle partie d'un organisme. La collection de vertèbres d'un poisson peut avoir une complexité moindre que celle des mammifères, en quoi cela implique-t-il qu'ils soient moins complexes ? De plus, il est intéressant de remarquer la méthode. S. J. Gould dit : j'ai besoin d'un énoncé plus long pour décrire la colonne vertébrale des mammifères que pour décrire celle des poissons, donc la colonne vertébrale des mammifères est plus complexe que celle des poissons. Là on n'est pas vraiment loin de Kolmogorov! La vision peut toutefois sembler parcellaire. Est-ce la description des caractéristiques de tel ou tel individu, ou de telle ou telle collection d'individus qui est importante, ou plutôt la description de ce qui fait la généricité de l'espèce dans son ensemble et non tel ou tel individu ?Par exemple, pour les organismes possédant un ADN, on pourrait peut-être prendre comme mesure de complexité , la longueur de la séquence de codons minimale permettant de générer l'individu(2).

A quel niveau place-t-on l'étude de la complexité ? Pourquoi se limiter aux organismes vivants ? Depuis la soupe originelle vue par Ilya Prigogine à l'homo sapiens sapiens, en passant par le Big Bang, n'y a-t-il pas augmentation de la complexité. Qu'est-ce qui fait cette augmentation ? Le temps ! Sur les grandes périodes des temps cosmiques se produisent des phénomènes chaotiques qui introduisent l'aléatoire dans la construction. La réponse au problème de l'accroissement ou non de la complexité n'est-elle pas conditionnée aussi par les frontières de l'ensemble des événements étudiés ? On peut se trouver, comme dans le cas de l'entropie, dans des situations de dégradation locale de la complexité de presque tous les objets étudiés, avec une augmentation globale de la dite complexité. La tendance naturelle de toute vie , c'est la mort, et pourtant il y a la vie et apparaissent des organismes plus complexes les uns que les autres. Ça ne signifie pas évidemment qu'il y ait une tendance d'ensemble des organismes vers la complexité, mais il existe une tendance certaine au cours du temps à l'apparition de nouveaux organismes de plus en plus complexes, ne serait-ce que par le jeu de l'aléatoirité. L'apparition des bactéries elle-même marque un saut dans l'accroissement de complexité du mouvement de la matière. Ce qui caractérise la matière c'est le mouvement, il n'y a pas de matière sans mouvement et dès qu'il y a mouvement, il y a temps (le temps du mouvement) et donc passage d'un état à un autre de la matière. C'est durant ce passage que joue l'aléatoirité mais elle joue avec des lois propres à l'état dans lequel était la matière à «l'instant» d'avant. Dans cette situation, la croissance globale n'est pas le résultat d'une accumulation des croissances locales. C'est une situation bien connue en mathématiques non convexes (principe de Pontriaguine). La limitation du propos à une catégorie risque là d'affaiblir la portée de la démonstration. Toutefois pour une complexité globale donnée, dès qu'apparaît un objet de complexité supérieure à celle de tous les autres, la complexité globale elle-même augmente, elle devient égale à la complexité maximale des objets étudiés. En effet, l'ensemble des objets étudiés contient, par définition, tous les objets étudiés, donc aussi chacun d'eux. L'objet de complxité maximale ne saurait se réduire à aucun des autres objets de l'ensemble (sinon il ne serait pas de complexité maximale). Lorsqu'on donne une description minimale de l'ensemble étudié, il faut que cettedescription décrive aussi l'élément de complexité maximale. La complexité de l'ensemble ne saurait donc être de complexité inférieure à celle de l'élément de complexité maximale. La conséquence en est que quelque soit la prégnance du règne bactérien sur le monde vivant, si l'homo sapiens sapiens en est l'élément le plus complexe, la complexité du vivant est alors au moins égale à celle-ci, ce qui marque un accroissement de complexité par rapport au temps où n'existaient QUE des bactéries.

Par ailleurs, il convient de définir ce dont on parle. Lorsqu'on parle des hommes par exemple, doit-on se limiter à la complexité des seuls individus (en supposant qu'on sache la quantifier) ou doit-on prendre en compte l'être social, c'est-à-dire l'ensemble des relations qu'il entretient avec le reste de la société humaine, ou plus encore, doit-on considérer la société elle-même comme un organisme à part entière ? Dans ces derniers cas comment mesurer la complexité de la société humaine à l'aune à laquelle on mesure celle d'un individu ? Dans le cas de l'individu social, en interaction avec ses congénères, la complexité tient au fait que l'individu n'est pas seulement le produit du programme génétique qui caractérise l'espèce, il est le produit aussi de ses rapports avec son entourage, avec tout le caractère aléatoire que cela peut recouvrir. Il y a fort à parier qu'à ce niveau-là, on n'est plus dans le même ordre de magnitude que la bactérie. Il y a là des aspects qualitatifs à prendre en compte qu'une simple analyse statistique ne saurait pointer. A tel point que S. J. Gould pointe bien ce changement qualitatif, puisqu'on passe, dit-il d'un développement darwinien à un développement lamarckien, par transmission des connaissances (3). Ce qui, au passage, donne un facteur accélérant et cumulatif au phénomène. Autre problème que cette évolution de la complexité, l'homme peut - va - intervenir sur le développement de l'espèce elle-même, y compris au niveau génétique. C'est déjà fait pour des organismes moins évolués (plantes et animaux) que ce soit par les sélections au cours de l'histoire, ou par génie génétique aujourd'hui. On peut même envisager qu'on puisse dans un avenir proche créer une nouvelle espèce humaine, ou mettre des espèces animales à notre disposition. N'expérimente-t-on pas des modifications génétiques chez le cochon pour pouvoir en greffer des organes sur l'homme ? Par contre, ce passage à un développement lamarckien (S. J. Gould refuse le terme d'évolution dans ce cas) interdit qu'on assimile ce développement à la lutte pour la vie, chère aux tenants de la sociobiologie et à la justification du libéralisme économique pur et dur au nom des « dures lois de la nature ».

Par ailleurs, il y a une difficulté importante à mesurer la complexité à partir d'une collection d'individus, cela tient au fait que le particulier contient le général, mais pas l'inverse. C'est-à-dire qu'aucun individu pris isolément n'est réductible à ce qui caractérise l'espèce dont il fait partie, il est beaucoup plus complexe (au sens de Kolmogorov).

Schématiquement (4) le mouvement de la matière est passé chronologiquement de la matière « inerte » à la vie sous forme de bactéries, à la vie d'être plus organisés, puis à la vie d'êtres plus organisés, puis à la vie d'être en inter-relations entre eux, enfin à la pensée et à la conscience qui est une forme du mouvement de la matière et simultanément à l'émergence de la société (5). Ce n'est certes là quantitativement que marginal, mais au plan qualitatif, pour nous, c'est fondamental. Et bien entendu, rien n'étant donné une fois pour toutes, ces formes d'existence de la matière en mouvement peuvent disparaître, mais nous aurons du mal à en discuter alors.

Il est évident qu'il ne faut pas confondre la conséquence et la cause, la complexité est la conséquence de l'évolution, du temps (?!), et non la cause, mais elle est, du moins pour les échelles de temps qui concernent notre système planétaire, une des caractéristiques principales.

 


1. On peut aussi faire de la complexité en moyenne et dans le meilleur des cas, mais c'est une autre histoire.

2. J'écris minimale car on sait que, outre ceux dont on ne sait pas à quoi ils servent, nombre de codons ne servent à rien dans une molécule d'ADN.

3. In la Recherche n° 301, septembre 1997, p. 114.

4. Il ne faut pas avoir peur d'être schématique, le schéma est le mode courant d'exposé en science, le principal est de savoir qu'un schéma n'est qu'un schéma, qu'il comporte les idées essentielles mais laisse de côté toutes les nuancesÉ par définition.

5. C'est-à-dire d'individus (d'hommes en l'occurrence) entrant entre eux en des rapports de production et d'échange. En effet, on ne saurait parler de société d'abeilles, pas plus que de société des cellules du foie. Buffon en son temps avait déjà eu à se battre contre le concept de Société des mouches.