Des outils inspirés du vivant

De par leurs implications philosophiques, les tentatives de re-création de la vie illustrent le côté le plus fascinant de la vie artificielle. Dans la pratique, ces travaux sont pourtant loin d'être les plus importants, ni les plus représentatifs de la « discipline ». La vie artificielle ne se limite pas aux seules tentatives de construction de nouvelles instances de la vie ou à la biologie théorique. Elle s'inspire des propriétés du vivant pour proposer des constructions originales, tant algorithmiques que physiques, dotées de capacités étonnantes et aptes à résoudre des problèmes difficiles vis-à-vis desquels les approches plus traditionnelles rencontrent de graves difficultés. C'est le vaste domaine des artefacts biomimétiques (algorithmiques et robotiques), dont voici quelques exemples.

Les algorithmes évolutionnaires

Les biologistes utilisent le concept de paysages adaptatifs pour représenter l'ensemble des combinaisons génétiques et les niveaux d'adaptation correspondants. Par exemple, dans un diagramme en trois dimensions, la hauteur (z) représente le niveau d'adaptation de l'ensemble des configurations génétiques (x, y).

 

Paysage adaptatif

Les mécanismes évolutifs ont montré leur efficacité, leur capacité à rejoindre les points les plus « élevés » des différents paysages adaptatifs. C'est cette capacité qui a inspiré les chercheurs en informatique qui en ont pris modèle pour proposer des algorithmes originaux. Cette branche de la science informatique est devenue l'algorithmique évolutionnaire.

De nombreux problèmes d'optimisation (classiquement non linéaires) ou de recherches au sein de vastes espaces (explosion combinatoire) n'ont pas de « solutions mathématiques » directes. Des méthodes très diverses ont été proposées qui vont de l'exploration systématique à l'exploration aléatoire. Les plus récentes utilisent souvent le « hasard guidé », c'est-à-dire qu'à des procédures plus ou moins empiriques sont associées des procédures aléatoires permettant de sortir des optima locaux. On a proposé ainsi d'utiliser des mécanismes s'inspirant directement de la théorie darwinienne. L'idée consiste tout simplement à construire une « population » aléatoire de solutions potentielles au problème posé. Les « individus » sont ensuite testés (calcul de la fitness) afin de favoriser la « reproduction » des plus aptes, c'est-à-dire ici de ceux qui s'approchent le plus de la solution. Les mécanismes de reproduction, de croisement des individus les plus adaptés et de mutations permettent progressivement d'approcher la solution recherchée.

Par exemple, pour résoudre le fameux problème du voyageur de commerce 1 on construit une population représentant un ensemble de parcours aléatoires. On sélectionne ensuite les meilleurs (les plus courts) que l'on croise entre eux pour obtenir une nouvelle population de parcours et ceci aussi longtemps qu'on le souhaite pour approcher le parcours optimum. Les résultats obtenus montrent que les algorithmes évolutionnaires sont particulièrement adaptés à ce type de problème.

Les algorithmes évolutionnaires ont maintenant fait leurs preuves. On les retrouve par exemple dans des domaines aussi divers que l'industrie (optimisation des allocations de ressources, programmation de robots...), la conception (optimisation de formes...) ou encore la bourse. Plus encore, des environnements de programmation dédiés, destinés à faciliter l'appropriation de ces méthodes par les non-spécialistes, sont en cours de développement, notamment en France avec le langage EASEA de Pierre Collet 2.

Les L-systèmes

Les processus de la morphogenèse restent mystérieux. Malgré les progrès de la génétique, de nombreux mécanismes nous restent inconnus. A. Lindenmayer (1925-1989) a proposé une méthode de description formelle de la structuration des plantes. Basée sur une forme récursive de grammaire générative, elle a été approfondie et mise en ?uvre graphiquement par P. Prunsinkiewicz dans les années quatre-vingt.

Les procédures utilisées sont simples, mais nous ne les décrirons pas ici. Contentons nous de présenter quelques-unes des images obtenues 3.

 

 

 

 

 

L'inspiration biomimétique de ces figures est indéniable. Elles ne sont pourtant que l'interprétation graphique de chaînes de caractères construites à partir d'un algorithme récursif.

Il est très difficile de cerner le lien entre la morphogenèse végétale et les L-systèmes. De même que les paysages engendrés par les fractales, malgré leur ressemblance avec la réalité, n'ont en aucune manière suivi une évolution comparable aux paysages naturels, les similitudes entre plantes et L-systèmes ne signifient nullement que les génomes végétaux décrivent un mécanisme identique. Les L-systèmes n'en confortent pas moins l'hypothèse selon laquelle les processus morphogénétiques mettent en ?uvre des procédures répétitives, probablement souvent récursives.

Les essaims de particules

Les algorithmes « d'optimisation par essaim de particules » (Particle Swarm Optimization -- PSO) trouvent leur origine dans les boids de l'infographiste Craig Reynolds 4 0 . Analysant les nuées d'oiseaux, Reynolds a proposé de les simuler à partir de trois règles simples d'application locale :

  1. Chaque individu doit éviter de heurter ses voisins.
  2. Chaque individu tend à s'approcher des vitesses et directions générales du groupe local, c'est-à-dire des voisins immédiats.
  3. Chaque individu cherche à s'approcher du centre de gravité du groupe local.

Il est possible d'y ajouter une règle de propension à rejoindre un point donné dans l'espace (« perchoir »).

L'application de ces règles simples a permis de construire des simulations graphiques d'un réalisme étonnant. Des algorithmes de ce type ont été utilisés dans des films aussi célèbres que Le retour de Batman ou Le Bossu de Notre Dame.

Les rassemblements animaux présentent divers avantages adaptatifs relevant au moins pour partie de l'échange d'informations. De la même manière que les algorithmes évolutionnaires s'inspirent des mécanismes évolutifs pour mettre en ?uvre des procédures d'optimisation, PSO s'inspire des phénomènes de rassemblement et de nuée, considérant qu'en tant que processus adaptatifs, ils sont potentiellement porteurs de capacités d'optimisation. PSO repose sur deux règles simples :

  1. Chaque individu se souvient du meilleur point (le plus proche de l'objectif) par lequel il est passé au cours de ses évolutions et tend à y retourner.
  2. Chaque individu est informé du meilleur point connu au sein de la population prise dans son ensemble et tend à s'y rendre.

 

Essaim de particules

L'une des premières applications a été l'entraînement d'un réseau de neurones devant réaliser la fonction booléenne Xor (ou exclusif) et utilisant treize paramètres. L'essaim devait ainsi se déplacer au sein d'un hyperespace à treize dimensions. Chacune de ces dimensions représente alors l'espace des poids possibles pour une connexion neurale donnée.

Cette méthode a maintenant de nombreuses utilisations. On la retrouve comme alternative aux méthodes classiques d'entraînement des réseaux de neurones, mais aussi par exemple dans des procédures d'optimisation de l'alimentation de cultures bactériennes. Là encore, l'utilisation des mécanismes du vivant s'est avérée d'une fécondité remarquable.

L'optimisation par colonie de fourmis

La capacité des insectes sociaux à réaliser des tâches hautement complexes a également inspiré les informaticiens et donné lieu au concept d'intelligence collective articulé autour des mécanismes d'auto-organisation. L'optimisation par colonie de fourmis n'est qu'une des nombreuses applications de ce domaine.

J.-L. Deneubourg de l'Université Libre de Bruxelles a proposé une explication des capacités d'optimisation des procédures de recueil de ressources chez certaines espèces de fourmis. Très schématiquement, au départ un grand nombre de fourmis se déplacent à l'extérieur du nid, plus ou moins au hasard à la recherche de nourriture. Quand elle découvre une ressource, une fourmi rentre au nid en déposant une trace de phéromones. Cette trace tend à attirer les congénères qui, en la suivant, vont parvenir à la nourriture. Ils vont alors retourner au nid et renforcer la trace à leur tour. On assiste ainsi à la mise en place d'une boucle de rétroaction positive (« effet boule de neige »). S'il existe plusieurs chemins pour atteindre la ressource, l'accumulation de phéromones sera nécessairement plus rapide sur le chemin le plus court. C'est ainsi que certaines espèces de fourmis tendent à optimiser le recueil de nourriture.

 

Recueil de ressources chez certaines fourmis

Marco Dorigo s'est appuyé précisément sur ce mécanisme pour proposer l'approche dite « optimisation par colonie de fourmis » (Ant Colony Optimization) qu'il a d'abord validé en l'appliquant au problème du voyageur de commerce. On trouve maintenant des « fourmis » dans le routage des télécommunications, l'allocation des ressources dans les processus industriels ou encore la conception de circuits électroniques.

Les machines autoréplicatrices et autoréparables

L'utilisation d'éléments FPGA (des composants électroniques reprogrammables) a permis de concevoir des machines d'un nouveau genre, en ce sens qu'elles sont capables de s'autoréparer. Le LSL de Lausanne sous la direction de Daniel Mange est particulièrement en pointe dans ce domaine. On y a construit par exemple la BioWatch, une horloge conçue à base de composants FPGA, qui est capable de se reconfigurer d'elle-même en cas de défaillance de l'un ou l'autre de ses composants. En cas de défaillance grave, elle est même capable de se dupliquer au sein d'autres composants afin de pérenniser son fonctionnement.

Plus récemment, le LSL a conçu le BioWall 5 1 , un système qui préfigure aussi bien de nouvelles interfaces tactiles, qu'un futur tableau noir ou que les tissus intelligents de demain.

Les mécanismes mis en jeu dans ces systèmes pourront fournir les bases de nouvelles machines robustes, aptes à s'adapter à la tâche en cours et à « survivre » dans un environnement difficile et changeant (on pense en particulier à l'exploration spatiale). Associés aux nanotechnologies, ils pourraient permettre des réalisations dignes de la plus ébouriffante des sciences-fictions.

 

 

Le BioWall

Les robots

Les roboticiens s'inspirent également du vivant. Toute une branche de la recherche s'appuie sur la construction de robots simples, dotés de quelques capacités élémentaires inspirés du comportement animal. C'est le vaste domaine des animats (voir http://futura-sciences.com/decouvrir/d/dossier178-1.php ). On note qu'on utilise fréquemment des algorithmes évolutionnaires pour programmer ces robots (robotique évolutionnaire).

De même, on s'inspire des travaux sur les insectes sociaux pour construire des systèmes composés d'un ensemble de robots simples dont les interactions permettent de réaliser des tâches plus ou moins complexes. On parvient ainsi par exemple à faire déplacer des objets trop lourds pour un individu seul, ou à amener un groupe de robots à trier des objets. Il est important de comprendre ici, que ces résultats sont obtenus sans coordination centrale et avec des machines dotées de capacités extrêmement simples. On peut espérer ainsi obtenir des systèmes de faible coût et d'une très grande robustesse dans la mesure où la destruction de quelques individus n'empêche nullement la réalisation de la tâche assignée.

 

 

Robots pousseurs de Kube et Zhang.
Voir : http://www.cs.ualberta.ca/~kube/crip.cgi

On pourrait multiplier ainsi les exemples à l'infini, mais tous montrent que l'utilisation des mécanismes du vivant au sein d'algorithmes ou de robots ouvre une voie originale aux développements technologiques du XXIe siècle. Il est toutefois nécessaire de tempérer l'enthousiasme que pourraient susciter ces créations. La nature n'est pas avare, elle dispose de ressources quasiment illimitées et ne mesure pas son temps. L'évolution darwinienne n'a pas d'objectif et les formes de vie que l'on connaît sont le résultat tant de la contingence que d'une infinité de tâtonnement, d'une infinité d'essais et d'erreurs. De même, il est très simple de concevoir des systèmes de recueil de ressources ou de construction d'un nid qui soient immensément plus efficaces que ceux que l'on trouve chez les insectes sociaux. Là encore, la nature n'est pas avare de ses ressources.

Plus encore, il est très difficile de contrôler les résultats obtenus. Par exemple, en voulant programmer un robot devant se déplacer le plus loin possible en évitant les obstacles, on a pu obtenir une machine qui se contentait de tourner sur elle-même (ce qui n'était évidemment pas l'objectif), ses roues faisaient ainsi un très grand nombre de tours (ce qui était interprété comme un déplacement long) et le robot ne heurtait jamais d'obstacles.

Les systèmes biomimétiques permettent de résoudre des problèmes difficiles, les résultats sont généralement d'une robustesse exceptionnelle et les mécanismes utilisés sont d'une souplesse que l'on ne rencontre que très rarement dans les réalisations plus traditionnelles. En ce sens, l'inspiration biomimétique est un outil nouveau, extrêmement puissant, qui vient compléter la palette de ceux dont disposent les chercheurs et les ingénieurs.

 


1. Il s'agit de trouver le chemin le plus court pour relier un certain nombre de villes. Malgré son apparente simplicité, il s'agit là d'un exemple classique de ces problèmes dits « NP » (dont la complexité croît plus vite que n'importe quelle puissance de la variable), qui posent des questions fondamentales à l'informatique théorique.

2. Collet P., Lutton E et al., « Take it EASEA », Parallel Problem Solving from Nature VI, vol. 1917, Paris, Springer, 09/2000, p. 891-901. Voir aussi : http://minimum.inria.fr/evo-lab/EVO-easea.html .

3. Ces figures ont été réalisées avec L-System 4 de T. Perz. http://www.geocities.com/tperz/L4Home.htm. On trouvera des images époustouflantes ici : http://www.cpsc.ucalgary.ca/Research/bmv/vmm-deluxe/TitlePage.html .

4. Reynolds explique et montre son algorithme ici : http://www.red3d.com/cwr/boids/ .

5. 1 http://lslwww.epfl.ch/biowall/indexFr.html .