Existons-nous ?
La science est le lieu ou les hommes de notre époque sont face à la vérité”
W. Heisenberg

Décembre 2003


De récents résultats obtenus dans l’étude des phénomènes complexes montrent que l’univers dans son entier pourrait n’être qu’un processus calculatoire. Dès lors, la conscience elle-même pourrait n’être qu’une propriété émergente susceptible d’être simulée. Est-ce déjà le cas ?

Une idée ancienne
Platon, avec son mythe de la caverne, avait déjà envisagé la possibilité que nous ne voyons que l’ombre d’une réalité inconnaissable, les phénomènes naturels n’étant que les ombres de formes éternelles. Avant lui, Pythagore et son école affirmaient que la seule réalité, c’était le nombre (ou plus exactement les entités géométriques décrites par des nombres), le reste étant illusion. Le courant de pensée qui fait de la réalité une suprême illusion se retrouve tout au long de notre histoire, sous des formes diverses, des aphorismes du chinois Tchouang -tseu (1) à l’idéalisme de Berkeley et aux écrits de Leibniz; de certains jeux de rôles des années 80 à la trilogie cinématographique “matrix” ! Le point commun à toutes ces conceptions est de postuler que derrière l’apparente complexité de la réalité se cache une harmonie mathématique secrète dont nous ne voyons que l’incertain reflet. Le “calme” débat philosophique autoréférent sur ces sujets a été bousculé depuis le début des années 1990 par de surprenantes découvertes qui en font, nous l’allons voir, toute l’actualité.

Le réductionnisme cartésien face à son destin
L’importance des phénomènes complexes a été révélée petit à petit lorsque de nombreuses disciplines scientifiques se sont trouvées confrontées aux limites du réductionnisme, aux frontières de la méthode cartésienne. En effet, l’étude de nombreux systèmes composés de plusieurs éléments en interaction montre que le comportement du système ne peut être prévu par l’étude séparée de chacun de ses éléments: leurs combinaisons font surgir des comportements inattendus, et le tout est plus, comme le disait Aristote, que la somme de ses parties.
Il est facile d’illustrer ce concept par l’exemple d’un tas de sable: si l’on se concentre sur la position, les interactions et le bilan des forces s’exerçant sur chacun de ses grains, l’évolution d’un tas de sable est impossible à prévoir. Par contre, en se limitant à quelques variables globales (hauteur et rayon du cône de sable), cette évolution devient tout à fait déterminée. Le point clé est qu’ici la décomposition du système à étudier en facteurs plus petits augmente inutilement la complexité de l’ensemble à analyser. L’approche réductionniste trouve ici sa limite, qui est celle d’une complexité croissante induite par la décomposition d’un système en ses divers éléments, et elle est particulièrement mise en évidence par l’étude des organismes vivants. En effet, le lent démontage des organismes, de la cellule aux organites, puis aux molécules et maintenant au génome, a permis d’énormes progrès, mais montre actuellement ses limites: comment mettre en relation les énormes volumes de données collectées par l’analyse des génomes? Les biologistes sont conduits à élaborer de nouveaux modèles prenant la forme de réseaux permettant de mieux décrire l’interaction des différents éléments qui est à la source des singularités du vivant.
Alors que la biologie moléculaire se construisait, dans les années 50, une autre approche, balbutiante, allait se focaliser sur la simulation du comportement des organismes au moyen d’automates, éléments graphiques obéissant à des règles mathématiques précises. Comme souvent, cette approche exotique, théorique et ignorée de la plupart des biologistes allait fournir le socle de ce qui pourrait constituer une remise en cause radicale de nos conceptions...

Où les mathémagiciens s’en mêlent
C’est l’un des plus grands mathématiciens du 20e siècle, J. von Neumann, qui mis au point ces automates, inventés par S. Ulam dans le but de modéliser les caractéristiques d’autoreproduction des êtres vivants. Par la suite, les premiers spécialistes de l’informatique ont mis au point des simulations basées sur le comportement de ces automates reproduisant les systèmes à étudier. Un de ces programmes est le “jeu de la vie” de J.H. Conway (2), mis au point en 1969 et simulant l’évolution d’une population de cellules vivantes.
A quoi ressemblent ces “automates cellulaires”? Les plus simples se représentent le plus souvent sous forme d’une grille, chaque ligne représentant une avancée d’une unité temporelle. Le “comportement” (couleur par exemple) d’une case de la grille dépend de celui des grilles adjacentes au moyen d’une (ou de plusieurs) règle particulière. Pour des automates très simples, il n’existe que 256 règles possibles décrivant l’évolution de chaque case lorsque l’on avance d’une ligne dans le temps. Lorsqu’une de ces règles est appliquée, il se crée alors un ensemble de motifs qui adoptent un comportement pour le moins surprenant.

Dès 1936, les mathématiciens K. Gödel, A. Church et le père de l’informatique, Alan Turing, ont posé les bases de la théorie de la calculabilité et se sont intéressés au calcul mécanique. Dans ce cadre, Turing a montré que des automates cellulaires peuvent constituer ce que l’on appelle des “calculateurs universels”, et sont en fait susceptibles de réaliser l’ensemble des calculs possibles. Il en découle que si les phénomènes, même les plus complexes, sont calculables, alors ils peuvent l’être par des automates cellulaires adéquats.
Mais qu’appelle t’-on complexité d’un système ? Trois chercheurs (Kolmogorov, Solomonoff et Chaitin, que nous retrouverons) ont mis au point une mesure de la complexité d’un système, dite complexité de Kolmogorov. L’intéressant est que cette mesure nécessite l’utilisation des conceptions de Turing: la complexité d’un système se définit par la longueur du plus petit programme susceptible de l’engendrer (3). Cette approche s’est révélée particulièrement précieuse pour la description mathématique de phénomènes physiques tels que l’entropie ou encore celle de la complexité croissante des systèmes apparaissant au cours de l’histoire de l’univers (4).

Cette intrusion des mathématiques dans la biologie n’a pas été accueillie avec enthousiasme par la majorité des biologistes, souvent fâchés depuis l’enfance avec cette discipline. De plus, la simulation a mauvaise presse, particulièrement en France, chez les biologistes, aussi bien dans l’enseignement, où elle est quasiment abhorrée, que dans la recherche où elle ne suscite le plus souvent qu’un intérêt poli. Cependant, des résultats intéressants ont déjà été obtenus par l’étude d’automates cellulaires: en 1995, le comportement des cellules de l’utérus a pu être modélisé (5) de façon à étudier le mécanisme du déclenchement de l’accouchement. Le développement des structures en feuillets caractéristiques du début de l’embryogenèse a aussi pu être reproduit de cette façon (6) ainsi que, plus prosaïquement, celui du follicule pileux, très étudié en cosmétologie. Le comportement des vraies cellules semble bien pouvoir être décrit par celle des cellules virtuelles d’un univers mathématique. Malgré tout, ces étranges grilles pour informaticiens semblaient ne posséder qu’une utilité exotique et se cantonner à un rôle accessoire pour scientifiques fana d’ordinateurs en manque d’excentricités.
Cependant, le potentiel insoupçonné des automates cellulaires n’allait pas tarder à se révéler sous la plume de physiciens passés maîtres dans la modélisation des systèmes complexes qui résistent à l’analyse classique. Ils allaient oser étendre la pertinence du concept à la base des automates, à savoir la possibilité qu’un calcul simple répété engendre des comportements complexes, à l’univers entier.

Ceux par qui le scandale arrive
Nos trois larrons entrent en scène vers le milieu des années 1990. Il s’agit de S. Wolfram, E. Fredkin et S. Lloyd. Ce sont des chercheurs d’un genre un peu particulier dont l’activité a été abondamment commentée, souvent en termes peu amènes, par les cercles académiques. Issus de l’industrie informatique, ces individus cumulent des défauts rédhibitoires aux yeux de l’establishment:
- ils ont fait fortune dans le software, et sont donc totalement indépendants des institutions que par ailleurs ils créent où financent parfois, ce qui les affranchit des compromissions inhérentes à la nécessaire conservation d’un emploi de chercheur dans un cadre universitaire classique ainsi que de l’usage de la diplomatie résultant de l’insertion dans le cadre hiérarchique d’un laboratoire de recherche.
- leur envergure intellectuelle est telle que l’on ne peut se permettre de les traiter comme de doux dingues qui passent leur temps à ratiociner sans fin sur des sujets qui les dépassent
- indépendants dans leur pensée, la publication de leurs résultats ne suit pas les voies académiques habituelles. Ils ne se sentent pas tous obligés de publier dans des revues savantes au lectorat évanescent, mais préfèrent s’éditer eux-mêmes et faire confiance au réseau internet pour diffuser leurs idées (7, 8, 9). Par là même, ils s’affranchissent du contrôle tatillon et des coups de ciseaux qui donnent aux articles le ton scientifiquement correct correspondant à des notes écrites pour des motifs essentiellement administratifs et qui rendent la lecture des sujets les plus passionnants aussi stimulante que celle de l’annuaire des télécoms.
Ces étonnants penseurs, que nombre de chercheurs auraient préféré voir se cantonner sur des plages de rêve, vêtus de lin blanc et sirotant des cocktails, se sont proposé de réfléchir à la genèse des processus complexes que la physique et son arsenal mathématique classique ont du mal à expliciter. S’appuyant sur plusieurs années de travaux disparates, ils ont ordonné les résultats précédents et y ont apporté leurs contributions respectives, exprimées pour l’essentiel dans le volumineux ouvrage de l’un d’eux (10), S Wolfram (fondateur de la société “mathematica”) ainsi que sur leurs sites web personnels. Ces excentriques de la recherche, disposant à la fois des moyens intellectuels et financiers nécessaires à une recherche novatrice, possèdent qui plus est des personnalités bien marquées: Fredkin, millionnaire qui enseigna l’informatique au MIT et fut l’ami du physicien R. Feynman, vit à présent sur sa propre île tropicale; S. Wolfram est le richissime fondateur de Wolfram research et ses fascinantes capacités intellectuelles (il obtint son doctorat de physique à 20 ans) n’ont d’égale que son immodestie revendiquée; Lloyd est l’universitaire de la bande, spécialiste de l’étude et de la définition de la complexité au prestigieux M.I.T. de Boston.
Leur conviction s’exprime simplement: l’ensemble des processus à l'œuvre dans l’univers doit pouvoir être décrit comme un calcul, et ce calcul est susceptible d’être lui-même simulé par une “machine de Turing”, autrement dit par un programme informatique. Il en découle que même les processus les plus complexes peuvent être décrits par un processus calculatoire relativement dont la répétition dans le temps engendre de la complexité, voire de l’indétermination, à partir d’une base parfaitement déterministe.
Comme le précise Fredkin, cette conception est “ une théorie atomique portée à son extrémité logique, où toutes les quantités de la nature sont finies et discrètes. Ceci signifie que, théoriquement, n'importe quelle variable peut être représentée exactement par un nombre entier. “ (7). Cette conception n’est pas nouvelle (elle est partagée également par le mathématicien G. Chaitin) et avait déjà été formulée par le physicien J.A. Wheeler, mais elle implique l’abandon de deux concepts fondamentaux qui n’ont jusqu’à présent que rarement été remis en cause:
- L’hypothèse du continu: les physiciens pensent que notre espace-temps est un continuum, c'est-à-dire que l’on peut, par exemple, toujours définir un point-événement situé entre deux autres points. Ceci permet d’utiliser l’arsenal mathématique de l’analyse qui considère que certaines équations basées sur cette caractéristique peuvent être utilisées. Au contraire, Fredkin conjecture qu’à un niveau ultime, l’espace-temps n’est pas continu, mais constitué de cases d’espace-temps de dimension finies. Cela implique l'abandon d’une deuxième notion.
- l’infinitude : s’il n’existe pas de continuité, alors la nature n’héberge aucun infini, que se soit vers les petites dimensions où les plus grandes.

Il est assez révélateur de voir que ces conceptions s’accordent avec les développements réalisés par d’autres scientifiques travaillant selon des voies plus classiques. En effet, plusieurs physiciens pensent qu’a une échelle extrêmement petite, l’espace-temps est quantifié et non continu (11, 12), et que, à l’autre extrémité des dimensions, notre univers ne serait infini qu’en apparence et résulterai de l’illusoire répétition d’un motif de très grande dimension, mais fini (bien que ne possédant pas de bords - 13).
Si ces hypothèses sont exactes, les mathématiques classiques, et l’analyse en particulier, se révéleront impuissantes à appréhender la nature ultime de la réalité, car les fonctions apparaissant en physique ne pourront plus être considérées comme étant continûment dérivables. Par contre, les automates cellulaires fournissent un moyen d’une puissance insoupçonnée pour étudier les phénomènes où l’approche classique déclare forfait (14). Ainsi, même des automates cellulaires très simples peuvent recréer à la demande des motifs périodiques (correspondant à des phénomènes cycliques, faciles à traiter classiquement), chaotiques (plus difficiles à générer) mais également organisés et dotés d’une complexité croissante (ce qui n’est pas mathématisable par les voies les plus classiques).
À ce stade, une remarque doit venir à l’esprit du lecteur perspicace (y en a t’il d’autres?): si des calculs combinant des quantités entières suffisent à expliquer la complexité universelle, alors quid des phénomènes d’indétermination rencontres à la fois en physique et en mathématique ?
En effet, ce n’est pas la moindre des surprises que de constater que cette nouvelle approche de la réalité implique l’existence d’une forme nouvelle de déterminisme qui se réintroduit dans la physique: les processus qui nous semblent aléatoires, chaotiques ou indéterminables ne seraient en fait que l’émergence de mécanismes communs parfaitement déterminés dont l’essence calculatoire nous resterait encore inintelligible. Examinons plus en détail comment l’indéterminisme résulte peut-être uniquement de notre anthropocentrisme, ou plus exactement, nous le verrons, de ce que nous pourrions désigner du néologisme de “dimensionnisme”.

Incertitude, indétermination et difficulté de penser le réel
La physique nous apprit dès le début du 20e siècle que la matière, au niveau atomique, présente un étrange comportement. Les particules élémentaires (bien mal nommées, puisque ce ne sont justement pas des particules, et que la plupart ne sont pas élémentaires...) qui constituent notre univers obéissent aux lois étranges de la physique quantique, qui semblent heurter le sens commun plus apte à manipuler les oranges que les neutrons. Cependant, comme le font remarquer S. Ortoli et JP.Pharabod (15) “les objets que nous connaissons ne sont pas des assemblages de micro-objets, mais des combinaisons d’entités élémentaires qui ne sont pas des objets”. Parmi les propriétés quantiques, le principe d’incertitude d’Heisenberg stipule que l’on ne peut connaître simultanément la vitesse et la position d’une particule. Toute précision accrue de la mesure d’une de ces quantités se traduit par une imprécision croissant au niveau de l’autre quantité. Comme des expériences récentes ont amplement confirmé cet état de fait, il peut paraître évident que des processus calculatoires parfaitement déterminés ne peuvent rendre compte de cette indétermination fondamentale. C’est là une erreur qui tient à la fois au biais causé par nos perceptions sensorielles et au caractère réel de l’indétermination.
En effet, cet indéterminisme n’apparait que lorsque nous voulons à toute force raccrocher la description des électrons, par exemple, à des objets comme des ondes ou des particules, ce qu’ils ne sont pas! Le physicien M. Bunge a d’ailleurs forgé le néologisme de “quanton” plus à même de correspondre au comportement des entités que sont l’électron, le photon, les protons et leurs collègues... En effet, l’électron, par exemple, n’est ni onde ni corpuscule, c’ est un objet physique dont la description exacte ne saurait être que mathématique, sous la forme d’une fonction d’onde, laquelle est définie en tout point et ne fait pas apparaître cette fameuse indétermination qui ne surgit que lorsque nous voulons à toute force faire rentrer le comportement de l’électron dans des notions macroscopiques comme la trajectoire, la vitesse ou la position. Loin d’être une limite à la précision de nos mesures, l’indétermination ne résulte que de notre incapacité à penser en termes “non classiques”, obsédés que nous le sommes par des idées comme le plan, la droite, le plan, la trajectoire... qui n’ont pas leur pendant dans le monde atomique! Nous voulons soumettre les lois du monde à celles auxquelles sont soumis les objets de notre dimension, et ce “dimensionnisme” est la source de nos difficultés. Ainsi que le déclare S. Hawking (16) “ L'imprévisible, l'élément de hasard, n'intervient que lorsque nous essayons d'interpréter l'onde en termes de positions et de vitesses de particules. Mais peut être est-ce notre erreur: peut-être n'y a t'il ni position ni vitesse de particules, seulement des ondes."
Ainsi, l’indéterminisme ne résulte que de notre anthropomorphisme intellectuel. Il en est de même pour les phénomènes chaotiques, où le hasard se conjugue au déterminisme. L’analyse de systèmes très sensibles à leurs conditions initiales (climat, prévisions météorologiques, turbulences...) montre que dans ces systèmes les incertitudes de mesure vont en s’amplifiant jusqu’à influer de façon notable sur le déroulement de l’évolution du système. Malgré tout, un système chaotique est pleinement déterminé mathématiquement même si il reste physiquement indéterminable à long terme .

Un monde d’automates
Les automates cellulaires les plus simples, qui représentent en fait un calcul qui se répète indéfiniment (itératif), permettent donc de simuler nombre d’aspect de phénomènes aussi complexe que l’organisation des tissus d’un être vivant où la dynamique d’une population. S. Wolfram étend cette compétence calculatoire à de nouveaux domaines et montre que les automates simples, définis pleinement en une ligne de code informatique, peuvent reproduire des phénomènes aussi divers que la croissance des cristaux, la morphologie des végétaux ou les turbulences que la mécanique des fluides peine à traiter. Cette troublante capacité de voir le calcul engendrer la forme amène à l’idée que les automates cellulaires peuvent fournir une nouvelle façon de comprendre la nature, se superposant ou remplaçant l’analyse mathématique classique qui se révèle bien souvent défaillante. Ainsi, l’ensemble des fondements de la physique peut être reformulé en termes calculatoires. C’est le credo de Fredkin, qui rejoint ici, après 26 siècles, la pensée de Pythagore: au “tout est nombre” du philosophe, il oppose un étonnant “tout est calcul” qui offre un cadre nouveau aux sciences de la nature. C’est également la voie suivie par Wolfram qui propose d’étudier les processus naturels comme étant les résultats de calculs modélisables par des automates, et bornant la complexité de la nature à celle des calculs réalisables avec ces moyens mathématiques. Cette approche est loin d’être acceptée sans réticence, et les difficultés les plus sérieuses proviennent de ce qu’il n’est pas possible, selon G. Chaitin, de prouver qu’un programme particulier est le plus simple des programmes possibles engendrant la complexité constatée. En d’autres termes, le fait de savoir si l’on a un bon modèle ou le meilleur modèle possible est indécidable et indémontrable.
Cela n’empêche pas Seth Llyod de proposer de pousser cette conception (baptisée “réductionnisme computationnel”) dans ses dernières limites, et de considérer l’univers entier comme un calcul (17) ayant effectué à ce jour un maximum de 10120 opérations élémentaires. Ce calcul pourrait n’être vu que comme une récréation spirituelle, mais l’étonnant est que le chiffre obtenu dépend uniquement des valeurs des constantes de la physique, et qu’il correspond à ceux découverts par le physicien Paul Dirac dans son “algèbre des Q nombres” où il se proposait d’étudier la signification des valeurs des constantes de la physique! Llyod en déduit que la simulation totale et parfaite de l’univers depuis son émergence est théoriquement1 possible (18). Il en découle une interrogation fondamentale, qui paraît folle à première vue, échappée d’un film à succès, mais qui ne peut être écarté: vivons-nous dans l’univers réel ou dans une simulation parfaite de celui-ci ? Existons-nous ?

L’insoutenable calculabilité de l’être
Déjà le physicien J.A. Wheeler avait proposé l’aphorisme selon lequel, la physique n’étant qu’information, l’être venait lui aussi de cette information (“it from bit”). Plus récemment, Nick Bostrom, de l’université d’Oxford, a proposé dans un article (19) un argument selon lequel les probabilités sont maximales pour que nous vivions à l’intérieur d’une simulation informatique. Son raisonnement (dont certaines étapes prêtent, selon moi, le flanc à la critique sans que pour cela sa conclusion soit remise en cause) est que si la simulation d’une conscience est possible (ce qui serait, nous l’avons vu, le cas) alors nos descendants lointains réaliseront cette simulation, pour peu que la durée de vie de notre civilisation le permette. Dès lors, le nombre de consciences pouvant être simulées dans une machine future (noter bien que comme il s’agit d’une simulation, il ne s’agit pas d’une machine pensante - les oppositions de R. Penrose (20) à l’élaboration des machines pensantes ne tiennent pas ici) pourra être très grand, très supérieur à celui des 6 milliards de consciences habitant actuellement notre planète, et ceci de plusieurs ordres de grandeur. Il en découle que vu le nombre de consciences simulables, le seul fait d’être nous même une conscience nous place d’emblée dans la situation la plus probable, à savoir celle de faire partie des centaines de milliards de consciences simulées plutôt que du “petit” nombre de consciences “réelles”...
Hâtons-nous de dire que, dans ce cas, nous n’avons aucun moyen de savoir si nous sommes ou si nous ne sommes pas vraiment: être ou ne pas être, telle n’est plus la question! Tout juste pourrait-on subodorer les options philosophiques des programmeurs de la simulation en fonction des événements que nous vivons, mais la recherche de ces indices subtile ne serait guère probante...
Toutefois, si l’univers est bien le résultat d’un calcul, que celui-ci soit réel ou simulé, nous tenons peut être là l’explication de la “déraisonnable efficacité des mathématiques”, car comment expliquer sinon comment une pure abstraction issue de l’activité de l’esprit humain réussisse si bien à décrire et à prévoir les phénomènes où l’homme n’intervient pas ? Les mathématiques régiraient le monde parce que ce dernier est, dans son essence, une mathématique...

Une incertaine réalité
Gageons que nous regarderons à présent nos ordinateurs d’une autre façon... Mais que se rassurent les inquiets: le mathématicien Godel a démontré que dans toute axiomatique surgit nécessairement au moins une proposition indécidable, qui ne peut être réduite, mais seulement “déplacée” vers d’autres propositions. Tout système logique repose donc sur un parti pris, un acte fondateur, un acte de volonté consciente. Ainsi que le déclarait, prophétique, Werner Heisenberg (21) en 1942 : “Lorsqu’à tel lieu de la vie de l’esprit une connaissance fondamentalement nouvelle se présente à la conscience des hommes, il faut toujours réexaminer et à nouveau résoudre la question de savoir ce que la réalité est véritablement.”


R.Raynal
Professeur, Dr de l’université de Toulouse


Références
1 - “Un jour j’ai rêvé que j’étais un papillon, et à présent je ne sais plus si je suis Tchouang-tseu qui a rêvé qu’il était un papillon ou bien si je suis un papillon qui rêve qu’il est Tchouang-tseu “ - 350 av. JC
2 - Gardner M., The fantastic combinations of John Conway’s new solitaire game of Life. Scientific American 223, 4/1970, 120-123.
3 - Delahaye JP. L’intelligence et le calcul. Ed Belin, 2002
4 - Li M, Vitanyi P. An introduction to Kolmogorov complexity and its aplications. Springer-Verlag, 2nd ed., NY, 1997
5 -Ikonicoff R. Science & vie 938, 11/95, 67-75.
6 - Lafforge B, Cahnce A, Kupieck JJ. Selection model for cell differenciation. Cell death and differenciation 3, 1996, 385-390.
7 - Fredkin: http://www.digitalphilosophy.org
8 - Wolfram : http://www.wolframscience.com
9 - Loyd : http://www-me.mit.edu/people/personal/slloyd.htm
10 - Wolfram S. A new kind of science ; 2002, S Wolfram LLC
11 - Meesen A. Spacetime quantification, elementary particles and cosmology. Foundations of physics, 29, 2000, 281-316
12 - Bekenstein J. L’univers holographique. Pour la Science 313, 11/2003, 42-50
13 - Luminet JP. L’Univers chiffonné. ed. Fayard - le temps des sciences, 2002
14 - Delorme M, Mazoyer J. La riche zoologie des automates cellulaires. Pour la Science 314, 12/2003 40-46
15 - Ortoli S., Pharabod JP. Le cantique des quantiques, ed. essais la Découverte, 1998
16 - Hawking S. Brêve histoire du temps - ed. J'ai lu, 207
17 - Lloyd S . Computationnal capacity of the universe. Physical review letters, 88, 23, 237901/1-4, 2002 et un article qui s’en inspire en français: Delahaye JP. L’ordinateur ultime. Pour la Science 305, 03/2003, 103
18 - Une revue de ce problème a été présenté: L’univers est il un calculateur ? Dossier “la recherche 360, 01/2003, 33-43
19 - Bostrom N. Are you living in a computer simulation? Times Higher Education Supplement, 16/ 05/ 2003 - preprint de l’article complet pour la revue The Philosophical Quarterly : www.simulation-argument.com .
20 - Penrose R. L’esprit, l’ordinateur, les lois de la physique. Intereditions, 1992.
21- Heisenberg W. Le manuscrit de 1942, ed. Allia, 2003

Sites interessants
- sur la complexité de Kolmogorov, de très nombreux articles originaux à télécharger librement
http://www.cs.ucsb.edu/~mli (page du Pr Ming Li, de l’université de Californie).
http://www.cwi.nl/~paulv/kolmcompl.html

- sur les thèses de Wolfram (avec extraits de son livre, supplément de problèmes à résoudre, illustrations): http://www.wolframscience.com

- sur les automates cellulaires:
http://hensel.lifepatterns.net - ce site recence et permet de télécharger des programmes de création d’automates pour les différents systèmes d’exploitation informatiques. Un programme en java (“enjoy life”) donne en ligne une vue de certains automates.
Le shareware lifelab permet de s’entrainer à fabriquer des automates cellulaires (pour mac): http://www.trevorrow.com/lifelab
Il est également possible de construire des véhicules virtuels simples qui possèdent des comportements complexes sur http://www.spiderland.org (breve simulation environment - pour mac).

- sur les remarques de G. Chaitin:
http://www.cs.umaine.edu/~chaitin
Sur ce site, il y a de nombreux articles de ce mathématicien, dans toutes les langues.

A noter: sur son site (http://www.wolframscience.com/reference/bibliography.html), S. Wolfram répond aux critiques qui lui ont été adressées par une bibliographie complète comportant de nombreux articles consultables en ligne.