Astrophysique & physique nucléaire

"il y a beaucoup plus de choses dans le ciel et sur la Terre ,Oratio,
que ne peut en rêver toute ta philosophie" - Shakespeare


 Télétransmission d'une information quantique  Destin de l'univers
 Constante cosmologique  origine de l'univers
 + vite que la la lumière ?  Les mânes de pythagore
 premier modèle explicatif de quasar   les particules élémentaires (sans littérature!)
 Le neutrino enfin lourd !  Existons nous ?

C..nneries quantiques

Un spectre hante la physique: la constante cosmologique

affiche

Dernière mise à jour: 28/02/2006

Critique (constructive!) de l'Univers élégant, de Brian Greene.


La non séparabilité quantique implique l'existence de l'atemporalité:

le monde fou du photon, où la téléportation de Mr Spock théoriquement possible !

Dans les années 1930, un ensemble de physiciens de premier ordre (H Poincaré, N Bohrs, W. Heisenberg (ci contre), W.Pauli, A Einstein, les époux Curie...) cherchant à expliquer la structure de la matière, ont créé la physique quantique, qui gouverne le comportement et décrit tous les objets à l'échelle moléculaire, atomique et infra-atomique. Le comportement des particules de matières ou d'énergie décrit par cette physique n'est pas intuitif, ne correspond pas du tout à notre perception macroscopique de la réalité, mais est indubitablement réel, comme de nombreuses expériences l'ont depuis démontré.Une des conséquences de la physique quantique est que toute particule est décrite par une entité mathématique appelée fonction d'onde. Ors, après une interaction, deux particules peuvent être décrites par une même fonction d'onde, même si elles se séparent et se situent ensuite à plusieurs millions d'années lumière de distance! Ces particules restent corrélées quelle que soit la distance qui les sépare. Toute modification de l'état quantique d'une particule modifie instantanément l'état de la deuxième particule, ou qu'elle soit dans l'univers! Il y a donc là le moyen de transmettre une information (l'état quantique) instantanément, en s'affranchissant de la notion de distance.

Il ne s'agit pas là d'une vue de l'esprit: cet effet a été expérimentalement constaté et confirmé. Tout d'abord par A.Aspect au début des années 1980, qui a constaté cet effet sur des photons corrélés séparés de quelques mètres (soit une distance gigantesque rapportée à la longueur d'onde des photons!). Depuis, A. Zeilinger et F Martini ont reproduit ce phénomène et l'ont étudié sur des photons plus éloignés. A. Muller, du CEA, a également constaté cet effet de "téléportation" sur d'autres particules que les photons, les mésons K.

Cet effet de corrélation apporte un démenti cinglant aux objections d'Einstein sur la physique quantique: contrairement à ce qu'il avait avancé avec Podosky et Rosen en 1935, il n'existe pas de "variables cachés" en physique quantique: le monde quantique possède bel et bien une indéniable réalité, même si elle désoriente ceux qui l'abordent!

Réfléchissons: comment deux photons peuvent il interagir de façon instantanée? Personne ne le sait. N'oublions pas que le monde du photon est très différent du notre: les photons se déplaçant à la vitesse de la lumière, le temps n'existe pas pour eux: leur production est contemporaine de leur mort. Cependant, il n'en est pas de même pour nous: les photons ayant une vitesse finie, aucune matière ne peut aller plus vite qu'eux. La corrélation quantique, qui permet la téléportation d'information, reste encore un mystère.

Rêvons un peu: tout corps matériel peut être décrit comme une somme de plusieurs fonctions d'onde, donc toute l'information qu'il contient est susceptible d'être téléportée instantanément (Scotty, énergie!).

 

Quelques remarques personnelles

Il semble que l'on puisse trouver pas mal de chose en cherchant une interprétation géométrique de la mécanique quantique. Mes compétences actuelles ne me permettent pas une telle recherche (hélas!) mais si un jeune physicien me lit, je l'engage à chercher vers là... Quelques idées en vrac, qui m'ont été inspirées par la conjonction fortuite entre mes réflexions personnelles et certains anciens travaux de JP Petit.

la décohèrence, passage du comportement quantique au comportement "classique"

Gardons à l'esprit quelques notions qui gênent quelque peu cette vision: le comportement quantique ne s'observe pas sur des objets macroscopiques (vous et moi, par exemple). Pourquoi? Probablement parce que les fonctions d'onde des particules interfèrent entre elles pour se détruire mutuellement: une particule n'étant que rarement isolée de son environnement, sa fonction d'onde est modifiée, réduite par les particules de son environnement: c'est le phénomène de décohérence avancé par W.Zurek et M Gell-Mann et expérimentalement observé par C. Monroe et D Wineland en mai 1996 (National Institute of Standards and Technology, Colorado) et étudié par S. Haroche et JM. Raimond en 1997.

C. Monroe et D Wineland ont réalisé un "piège à ion" dans lequel les niveaux énergétiques ioniques sont couplés à son mouvement de vibration: la décohérence est alors qualitativement observée. S. Haroche, JM. Raimond et M Brune ont utilisés un astucieux dispositif expérimental dans lequel on observe l'état quantique de quelques photons piégés. Le passage à intervalle variable d'atomes de rubidium (à état de Rydberg* circulaire) dont on détecte l'état quantique permet de mesurer la vitesse à laquelle les photons piégés transitent d'une superposition de phase à une phase unique. Cette décohérence se produit en un dix millième de secondes avec 3 à 6 photons, et ce temps décroît lorsque le nombre de photons impliqués augmente.

Les objets de notre environnement comportant des milliards de particules, leur comportement quantique est soumis à une décohérence éclair, ce qui rend inobservable leurs propriétés quantiques...CQFD.

Nous connaissions, avec le photon, une particule atemporelle. Faudra il imaginer pour expliciter les corrélations quantiques, une nouvelle familles d'objets "aspatiaux" ? (mais, au fait, pour toute particule voyageant à la vitesse de la lumière, t=0 donc la notion de distance ne signifie rien, et l'univers propre du photon se réduit à... un point

Un passionnant champ de recherche s'ouvre devant nous. Il est temps d'imaginer.

En avant, direction l'inconnu!

Une citation: A propos du "principe d'incertitude" de la mécanique quantique: "L'imprévisible, l'élément de hasard, n'intervient que lorsque nous essayons d'interpréter l'onde en termes de positions et de vitesses de particules. Mais peut être est-ce notre erreur: peut-être n'y a t'il ni position ni vitesse de particules, seulement des ondes." - S Hawking "brêve histoire du temps - ed. J'ai lu, 207

Etat de Rydberg* circulaire : Etat d'un atome très excité, ou un électron orbite très loin du noyau, ici selon une orbite circulaire. Leur intérêt réside dans leur durée de vie (longue pour un atome excité) et dans leurs caractères quantiques qui convergent, à la limite, vers un comportement classique.


DE LA TELEPORTATION DES ETATS QUANTIQUES

A CELLE DES OBJETS, PUIS DES ETRES VIVANTS

Les avancées réalisées récemment dans le transfert d'états quantiques (2) a distance permettent d'envisager sous un jour pratique la possibilité de développer dans le futur la téléportation. Disons qu'après analyse, rien ne semble l'interdire sur le plan théorique. La téléportation peut être envisagée de différentes manières:

Annuler la distance: l'univers dans son salon

La notion de distance dépend de la géométrie dans laquelle on se place: pour une fourmi se déplaçant sur une bande de tissu, la distance entre deux point est clairement définie mais si un coup de vent survient... 2 points disjoints peuvent se retrouver voisin pendant un bref instant, et notre fourmi peut se retrouver alors "téléportée" d'un point à l'autre... Le problème est que notre univers n'est pas une nappe! Bien que sa géométrie soit sujette aux déformations causées par de fortes densités énergétiques (c'est a dire de fortes masses!), celles ci ne permettent apparemment pas le déplacement d'un objet matériel sans le détruire. Si il existe d'hypothétiques passages reliant des régions éloignées de l'univers, ils semblent bien concerner prioritairement les particules élémentaires.... ("ces histoires de distances, ça ne me concerne pas " signé: un photon)

Faire et défaire, c'est toujours voyager

Autre possibilité pour la téléportation: analyser complètement un objet, transmettre les résultats de l'analyse et recomposer l'objet plus loin. Comme le fait remarquer J.P. Delahaye (1) dans un excellent article, c'est déjà ce que nous faisons avec un fax. On peut parfaitement imaginer analyser la position et le genre de chacun des atomes d'un être humain, transmettre les données et le resynthétiser à l'arrivée. Quelques petits problèmes subsistent, mais ils ne sont pas insurmontables:

Pour ce qui est du transport d'étres vivants, la quantité d'information à transmettre peut être bien plus réduite encore: un être vivant, c'est un support d'information génétique: a la limite, la transmission de cette information suffit pour obtenir un autre être vivant, un "artefact" génétiquement identique à l'individu de départ, mais différent par l'esprit. Ce problème de l'esprit est majeur:

Références:

1 - Logique & calcul de la téléportation - J.P. Delahaye - Pour la Science 272-28/34
2 - La téléportation quantique - A. Zeilinger - Pour la Science 272-36/44
3 - Les atomes de Rydberg - D. Kleppner, M. Littman, M. Zimmerman - Pour la Science 45 - 94/109


La fin du temps....

Quelques visions sur la fin de l'univers...

Les derniers résultats disponibles en astrophysique et concernant la densité moyenne de matière dans l'univers nous laisse penser que nous vivons dans un univers "ouvert": depuis le big bang, notre univers croit en taille et devrait continuer ainsi indéfiniment....

E Hubble avait découvert cet effet d'expansion, mais de récents travaux nous montrent que cette expansion s'accélère (projet supernova cosmology - S Perlmutter Berkeley lab.). Nous pouvons donc légitimement faire un choix parmi les modèles d'univers:

L'univers étant (provisoirement?) ouvert, voyons un peu ce qui l'attend dans un futur prodigieusement lointain... Son destin va dépendre de la stabilité du proton, constituant de tous les noyaux atomiques.

Si le proton se désintègre: prêcher dans le désert...

Si le proton est stable: les boules ...

Les trous noirs meurent aussi (Si ils existent ;-)


S.Hawking
Les trous noirs eux même finissent par s'évaporer: à leur lisière, des particules se forment et en 10100 ans, vident le trou noir de son énergie. Le trou noir rétrécit, devient de plus en plus chaud. Lorsque sa masse devient insuffisante, il explose dans une gerbe de rayonnements (neutrinos, photons, électrons et positons...) R.I.P.


S. Weinberg
Références

1 - R.Feynman: cour de physique quantique - 1987- ellipse
2 - F.Close: apocalypse when?: cosmic catastrophe and the fate of the universe - 1988 - W Morrow - NY.
3 - S. Hawking : a brief history of time: from the big bang to black hole : 1988 - Bantam books
4- S. Weinberg: The decay of the proton - Scientific american - juin 1981


Si le proton m'était conté...

dans un proton

Des résultats expérimentaux troublant viennent jeter un doute sur ce que l'on croyait savoir du proton. Si en théorie celui ci était définit comme un ensemble de 3 quarks s'échangeant des gluons dans un volume sphérique (hum hum! rien n'est moins sur!) de 8 x 10-16m de rayon, en pratique les choses semblent plus complexes... Ces fameux gluons (il y en a 8 différents) se désintégrant allégrement en paires quark/antiquark qui à leur tour s'annihilent pour redonner des gluons.... ect (voir schéma). Autrement dit, le proton est une dynamique, pas une statique...

En plus, il apparaît que électrons et protons sont sans volume, ce qui est intellectuellement gênant... On aime bien se les imaginer sous forme de petites billes, mais ce n'est pas ça du tout! Un problème plus gênant concerne le fait que les protons résistent trop bien aux collisions que l'on leur fait subir: impossible de les briser aussi facilement que prévu, impossible de voir un quark tout seul: il n'existe qu'avec ses deux frères, confiné dans le proton... Bref comment ces mystérieux gluons arrivent ils à propager une force qui, contrairement à toutes les autres, augmente d'intensité avec la distance ? Cette propriété ébouriffante (en termes savants, c'est la "liberté asymptotique de la chromodynamique quantique", de quoi briller dans les salons....) est encore à expliquer... Que devient même le concept de distance en dessous de 10-18 m ? J'ai quelques idées là dessus, bientôt communiquées dans un prochain paragraphe...


Les lendemains de Démocrite: et si l'espace temps n'était pas un continuum ?

Depuis fort longtemps, cette idée me turlupine, alors pourquoi ne pas vous en faire part? Imaginons qu'il existe un quantum d'espace-temps, une quantité minimale de temps et d'espace. Cette quantité minimale, définissons là à l'aide du temps de Planck. Toutes les durée et les dimensions que nous mesurons ne seraient donc que des multiples entiers de ce quantum. L' ordre de grandeur de ce quantum serait celui de l'échelle de Planck, autour de 10-35m. Entendons nous bien, c'est vraiment très petit: la "taille" d'un de "mes" quantum d'espace temps serait à un proton ce qu'un unicellulaire est à une galaxie! !

Les fonctions utilisée en physique ne pourraient être considérées comme indéfiniment dérivables. La continuité de l'espace-temps n'est qu'une illusion causé par l'échelle de nos observations.

En fait, je pense que ce n'est pas la gravitation qui est de nature quantique, mais l'espace-temps lui-même: il serait bien plus fécond de rechercher une géométrisation du monde quantique (tout comme la relativité peut être définie comme une géométrisation de la 'interaction gravitationelle) plutôt que de rechercher à quantifier la gravitation.

Imaginez donc notre espace-temps réduit à deux dimension, comme un plateau d'échec. Chaque case représente un quantum spatio-temporel, produit d'une distance par un temps. Ce que nous appelons matière et temps ne seraient en fait qu'une déformation affectant un nombre entier de ces cases, et ces grandeurs pourraient être décrite sous forme essentiellement géométrique. Selon notre "angle" de vue, une même déformation pourrait nous apparaître sous des formes différentes, ce qui expliciterai en partie la surabondance de particules élémentaires découvertes ces dernières années.

Je découvre ce jour (28/08/2002) que, comme souvent en sciences, lorsqu'une idée est "dans l'air", elle est partagée: le professeur Meissen, célèbre pour ses études des OVNI (ce qui n'enlève rien à la valeur de ses idées), a publié par ailleurs un article extrémement intéressant à ce sujet (Spacetime quantization - elementary particles and cosmology - Foundations of physics 2000, n°29, 281-316). Il est possible de le télécharger sur son site.

De même, le physicien Joao Magueijo présente dans son ouvrage de vulgarisation (au titre assez malheureux) "plus vite que la lumière " (ed Dunod, ISBN 2100072471) paru en octobre 2003 divers modèles envisageant cette possibilité d'un univers qui ne soit plus un continuum - à noter que cet ouvrage est aussi une remarquable description de la façon dont se fait la recherche réelle, et devrait être lu par plus d'un spécialiste autoproclamé de la "didactique des sciences expérimentales".


Au commencement...

L'origine de l'univers à été décrite depuis plus de 75 ans par le modèle du big bang. Rappelons les faits:

Distance des objets
(en années lumières)
78 millions
 
 
1,4 milliards
 
 
3,6 milliards
spectres
(2 traits blancs= raies du calcium)
vitesses d'éloignement
(en km/s)
1200
 
 
22000
 
 
81000
Les spectres sont ceux de galaxies de plus en plus lointaines. Les spectres sont les fuseaux au centre des images. Au dessus et en dessous, des raies de référence sont figurées. Noter le déplacement progressif vers la droite des 2 rais d'absorbtion (continues) du calcium. La vitesse des galaxies est calculée d'après le décalage de leurs raies spectrales: elle augmente en fonction de l'éloignement (v=hd et h constante de Hubble)

On en avait donc déduit le modèle suivant: au début du temps et de l'espace, l'univers était une singularité de température et densité quasi infinie qui aurait "explosé" il y a 15 milliards d'années (le terme "explosion" est mal choisi, mais la description du phénomène échappe à ce point à notre sens commun qu'il est difficile d'en trouver un autre). L'énergie de cette "explosion" serait à l'origine de notre univers qui depuis serait en expansion. La singularité initiale était indescriptible car les lois connues de la physique ne s'appliquent que lorsque la densité de l'univers a atteint la densité de Planck, soit 1097 kg/m3. Notre physique ne nous permet pas de remonter à l'instant t=0, celui ci ne possédant aucune signification.

Pendant son expansion, l'univers s'est refroidit, les particules s'y sont formées et ont aboutit à la formation des galaxies et autres objets qui le peuple actuellement (dont vous et moi).

Cette vision avait le mérite de la simplicité et explique bien les abondances relatives des divers éléments de l'univers. Bien qu'elle reste vrai dans ses grandes lignes, il est apparu que notre univers était sans doute bien plus étrange que nous le supposions il y a peu.

La théorie classique du big bang générait en effet quelque problèmes. Il faut en effet bien comprendre que le big bang est un phénomène s'étant déroulé à l'échelle subatomique. Il est donc décrit avec la physique des particules élémentaires. L'approche laissait subsister plusieurs problèmes:

Tenter de répondre à ces questions (sauf la dernière !) n'a rien d'une discussion oiseuse de philosophes verbeux: ces questions découlent naturellement des progrès de la physique des particules, celle la même qui explique le fonctionnement du transistor et qui permet la fabrication de l'ordinateur ou, fragment conscient d'un univers à l'indicible étrangeté, je tape ces quelques mots...

Pour résoudre les problèmes liés à la théorie classique du big bang, une autre théorie à été avancée et développée, qui complète et prolonge celle ci: celle de l'univers inflatoire. Nous allons voir que ses implications sont fantastiques et nous amènent à réfléchir sur les liens qui unissent l'homme au cosmos, et sur la façon dont nous pourrions bien devenir des créateurs d'univers! (en comprimant fortement le vide quantique, par exemple).

Avant de nous embarquer, ultime précaution: un modèle ne prétend pas être une réalité, c'est une façon de dire les choses que nous connaissons et observons à l'heure actuelle. Dans quelques mois, peut être quelques heures, cet édifice paraîtra risible, c'est une borne sur le chemin de la connaissance, pas son aboutissement! Ainsi, et afin que vous puissiez vous faire une opinion, je vous présenterais par la suite un autre modèle d'univers, l'univers gémellaire, imaginé par A. Sakharov (+ Green, Schwarz et Abdus Salam, bref pas vraiment des rigolos en proie à des délires subjectifs!) et complété par J.P. Petit. Vous verrez ainsi qu'il y a (ou qu"il devrait y avoir), en science, bien des façons d'expliciter un phénomène! (voir mes édito).

Dans la suite, j'utilise a dessein un ton que d'aucun trouveront péremptoire: l'univers est ceci, cela, ect... Attention: la science ne délivre que des vérités à responsabilité limité ! Ce n'est pas un dogme! J'utilise cette façon de m'exprimer pour rendre plus attrayant mon doux propos, mais n'oubliez pas qu'il n'est de vérité que relative ("Bien dit !" Albert E, de Princeton)

Les champs scalaires, c'est mieux que ceux des sirènes

L'univers est baigné, à baigné et baignera dans des champs scalaires (analogue au champ électrique). Si un de ces champs est constant en tout point, nous n'en ressentons pas les effets. Dans notre univers, les photons transmettent les forces électromagnétiques (lumière et chaleur, par exemple) et les bosons W et Z transmettent les forces nucléaires faibles. W et Z sont très massifs alors que les photons sont sans masse. Pour décrire ce qui se passait quand ces deux forces n'en faisait qu'une, on introduit des champs scalaires. Le plus important est le champs de Higgs qui en interagissant avec W et Z leur confère leur masse.

Donc, dans l'univers jeune, toutes les particules ont une masse nulle. Leur différenciation massique se fait lorsque l'univers se dilate et se remplit de différents champs scalaires. La valeur du champ qui apparaît dans un univers donné est donné par son énergie potentielle minimale dans cet univers.

L'univers: histoire d'une monstrueuse enflure

Au commencement était une mousse d'espace-temps. Emplie de champs scalaire soumis à des fluctuations aléatoires et quantiques. En certains points de cette mousse, le champs scalaire augmente, ce qui provoque la création de domaines inflatoires: alors que la vitesse d'expansion d'un univers purement matériel décroîtrait avec sa densité, l'énergie potentielle du champs scalaire maintient l'expansion car elle décroît bien moins vite que la densité. L'énergie du champs scalaire entraîne une expansion très rapide de l'univers (ou plutôt d'un domaine du multivers qui deviendra notre univers): c'est l'inflation. Le champ scalaire diminue très lentement pendant cette dilatation de l'univers, qui s'auto-entretien donc de façon exponentielle: en 10-35 secondes seulement, l'univers passe d'un diamètre de 10-35 cm à un diamètre de 10 puissance 1012 m (donc nous n'observerions qu'une toute petite partie de l'univers). En arrivant à son potentiel minimal, le champ scalaire oscille, et a perdu de l'énergie sous forme de particules élémentaires: le big bang était né!

Le big bang résulterait des oscillations du champ d'inflation à l'approche de son point minimum d'énergie potentielle. Noter que la sortie du minimum local peut s'être effectuée dans plusieurs "régions" donnant ainsi naissance à plusieurs univers dissemblables. Schéma d'après Bucher & Spergel

Le champ scalaire se comporte un peu comme un fluide très visqueux. Pendant l'inflation, des fluctuations quantiques sont emportées par l'expansion qui augmente démesurément leur longueur d'onde avant de les figer. Les premières à se fixer sont celles qui ont la longueur d'onde la plus grande au départ, suivies par d'autres. Ces ondes modifient à leur tour la valeur du champs scalaire, créant des hétérogénéité à partir desquelles se formeront les amas de galaxies.

Ces ondes figées sont extrêmement importantes: dans les rares régions ou elles renforcent suffisamment le champs scalaire, elle créent une dilatation exponentielle: l'univers se peuple donc continûment de nouveaux domaines inflatoires, il bourgeonne sans cesse...

Ainsi, l'inflation conduit à des univers divisés en domaines dans lesquels les lois et les constantes physiques sont différentes à basse énergie. Notre univers quadridimentionnel est un cas particulier ou la vie sous forme humaine est possible, mais sans cesse l'univers se créée, bourgeonne et dote des domaines entiers de lois physiques inédites: si l'on réfléchit au sens de l'infini, on peut en déduire que toutes les formes de vies sont possibles dans le "multivers". A la limite, un univers à la Tex Avery est parfaitement possible... (Tu ne rêve pas lecteur, ce n'est pas du délire héroïnomane mais de la physique de haut vol!).

Décidément, cette idée d'infini en physique nous pose des problèmes... il semble qu'il faut y réfléchir afin de bien séparer l'infini des mathématiciens, celui des philosophes et celui des physiciens, si tant est que le terme "infini" soit réellement vecteur de sens en physique ou ne soit que le reflet de notre incompétence actuelle a décrire certains phénomènes...

Pour expliquer pourquoi notre univers est ouvert, on suppose que le champs scalaire, rebaptisé inflaton, est passé par un minimum local. Dans certaines régions de l'univers (dont dans notre univers), l'inflaton est sorti de son minimum local par effet tunnel, et a déclenché le big bang en oscillant autour de son potentiel minimum. La sortie du minimum local (appelée "désintégration du faux vide") n' a pas été simultanée dans toutes les régions de l'espace, entraînant la création de plusieurs "univers bulles" dans lesquels les lois physiques et surtout la perception du temps ne sont pas identiques.

Les observations du rayonnement fossile cosmologique ne sont pas assez précise pour confirmer ou infirmer cette théorie, mais 2 satellites d'observation (l'européen Planck prévu pour 2007 et le détecteur d'anisotropie millimétrique de la NASA, ayant fournit ses données après 2001) devrait permettre de tester les conséquences observables de ces différentes théories.

Actuellement, les expériences d'observation a haute résolution du rayonnement cosmologique au moyen de ballons stratosphériques (Boomerang puis maxima) tendent a montrer que l'univers serait "plat". Confronté aux résultats obtenus lors de l'étude des supernovae lointaines, ce résultats augmente l'importance du paramètre "constante cosmologique" dans la description de l'univers: il semble bien que si la matière attire la matière, le "vide" la repousse! Ceci tendrait à monter que notre univers serait en ce moment dans une phase d'expansion, voire même d'inflation causée par la prépondérance de la constante cosmologique sur l'attraction gravitationnelle, du moins à très grande échelle !

Comment décrire l'insoutenable étrangeté de l'univers ?

"Que celui qui a des oreilles entende !"

Un peu d'histoire

Lors de la formation de l'univers, des structures multidimensionnelles ultradenses appelées supercordes ont du se former et attirer à elles la matière, formant des hétérogénéités dans un univers alors homogène. De ces structures hétérogènes serait nées les amas de galaxies et les structures à grandes échelle de l'univers. Si vous voulez voir ces supercordes, cliquez ici. Bonne route... Avant de partir, un rappel: bien que les supercordes soient très étudiées, elles n'ont pu être directement impliquées jusqu'à ce jour dans aucun fait observable...

Note (ajout en 2003) : l'inflation implique que notre univers, en fait notre espace, soit "plat". Cependant, les mesures expérimentales réalisées lors des expériences Boomerang et maxima (MAP est en cours d'analyse) montrerai que la valeur la plus plausible pour le paramètre de géométrie de l'univers (W) est de 1,2, donc en faveur d'un espace fini à grand rayon de courbure, elliptique. Cependant, aucun modèle inflationniste ne prédit W > 1, ce qui semble bien invalider l'inflation! Les tenants de cette théorie ont alors, apparemment, analysé les résultats de ces expériences en faisant comme hypothèse de départ W =1, ce qui obère fortement leurs conclusions puisque, après un magnifique raisonnement circulaire, elles permettent de retrouver leur hypothèse de départ, à savoir un espace euclidien....


Le retour de la constante cosmologique

L'expansion de l'univers a été mise en évidence dès 1929 par E. Hubble qui découvrit grâce au télescope du mont Wilson que toutes les galaxies sont emportées dans un mouvement d'ensemble qui les éloigne les unes des autres: loin d'être statique comme le pensait A. Einstein, l'univers est en expansion. Or, A. Einstein, après avoir établit en 1915 la relativité générale, avait observé que sa théorie ne pouvait conduire qu'à un univers dynamique (soit en expansion soit en contraction). Gêné par les implications philosophiques de sa découverte, le grand Albert avait alors sorti de son cerveau puissant une constante had oc

baptisée "constante cosmologique" l qui permettait de retrouver un univers stable (enfin, à première vue).

En fait, l permet l'existence d'un univers isotrope et homogène (supposition prophétique du grand Albert, vérifié depuis: l'univers possède bien à grande échelle une structure isotrope et homogène - enfin, peut être). De plus, l est liée à l'explication de l'inertie liée à l'énergie et à la quantité de mouvement (idée de E. Mach reprise par Einstein). En 1922, A Friedmann montre que l'univers de la relativité générale peut être isotrope et homogène mais non statique: il doit être en expansion ou en effondrement. Quant à l'intégration de l'inertie dans la relativité générale, Willem de Sitter résout le problème par l'invention de l'espace-temps. Eddington et Lemaitre démontrent également que la constante l ne permet même pas d'obtenir un univers stable: à la moindre perturbation (formation de galaxies par exemple), les univers artificiellement "stabilisés" d'Einstein s'effondrent lamentablement ou explosent! Einstein le signale dans un courrier à H Weyl : "s'il n'y a pas de monde quasi statique, alors au diable le terme cosmologique ") 

Avec les travaux de Hubble qui mettent en évidence l'expansion de l'univers, Einstein confesse que la constante cosmologique était "la plus grande erreur de sa vie". Le sort de l est jeté: la constante cosmologique passe aux oubliettes de la physique, et disparaît avant même d'avoir reçu un début de commencement de justification physique. l repose en paix, du moins le croit on. En fait, elle reste tapie dans les équations de la relativité et attend son heure...

En 1967, Y Zeldovitch la ressuscite ! Il lui donne une justification physique: l représente l'énergie du vide quantique, constante en tout point de l'univers. Cette énergie doit influer sur le comportement de l'univers mais personne alors n'en trouve la trace. On essaye alors de donner pour l des valeurs compatibles avec la cosmologie: en éliminant les valeurs négatives qui conduisent à une "supergravitation" telle que l'univers disparaît en quelques milliers d'années, il nous reste de nombreuse valeurs disponibles! Nous pouvons éliminer également les valeurs trop grandes: l'univers serait alors en expansion si rapide que la matière n'y existerait pas! Tout cela nous donne -1< l < 2 : on est bien avancé...

Ce qu'il faut bien comprendre, c'est que l agit sur l'interaction gravitationnelle: les propriétés géométriques de l'espace-temps (notre univers est un espace-temps à 4 dimension, 3 d'espace et une de temps - ce concept a été avancé par H Poincaré en 1905 dans un travail portant sur la dynamique de l'électron) dépendent de la quantité d'énergie qu'il renferme. Or, e=m (à une constante près, c2), ce qui veut dire que l'énergie ou la masse, c'est pareil. Outre matière et rayonnement, la géométrie de l'univers dépend de l'énergie du vide. Le calcul de cette quantité à partir du modèle standard des particules élémentaires donne une valeur bien trop grande.

Des paires de particules (particule/antiparticules) se forment, surgissant des fluctuations du vide quantique, interagissent puis disparaissent dans un temps très court. Elles sont à l'origine d'une bonne partie de la valeur de l puisque:

l = 8pG/C4 x densité énergétique du vide (dev)

Les observations continuent alors, et l embête tout le monde: on fait semblant de l'oublier, mais l'étude de l'univers lointain rendue plus facile par les télescopes géants et leurs détecteurs performants permet d'encadrer plus précisément sa valeur: la vitesse de l'expansion de l'univers (données par H0, la constante de Hubble) ainsi que sa densité de matière permettent de situer 0< l < 0,7 . C'est alors que deux équipes de chercheurs (équipe de S. Perlmutter - Supernova Cosmology Project et celle de B. Schmitt - Hight Z Supernovae Search) utilisent le rayonnement lointain des étoiles géantes en explosion (les supernovae) pour déterminer les valeurs de l et de la densité de matière dans l'univers. Et c'est là que le bel édifice du "modèle standard" ou l = 0, modèle qui arrange tout le monde, vole en éclat: l'étude des supernovae donne l = 0,7 et une densité de matière dans l'univers voisine de 0,3. Autrement dit, l représente 70% de l'énergie de l'univers !

Seul petit problème: la physique quantique, qui étudie la structure microscopique de la matière, a déterminée pour l'énergie du vide quantique, liée comme nous l'avons vu à l, une valeur légèrement trop forte: exactement 10120 fois trop forte ! (soit tout de même, pour ceux fâchés avec les puissances de 10, un milliard de milliard de milliard de milliard de milliard de milliard de milliard de milliard de milliard de milliard de milliard de milliard de milliard de fois trop forte!).

La constante cosmologique ne correspond donc apparemment pas tout à fait à l'énergie du vide quantique... mais alors, qu'est ce que c'est ? (si vous avez la réponse, envoyez la sous pli discret à A.Nobel Fundation - Stockholm - Sweeden ou bien envoyez moi donc un mail...).

Un élément de réponse est apporté par L'astrophysicien JP.Petit, du laboratoire d'astrophysique du CNRS de Marseille: la constante cosmologique peut correspondre à l'effet sur notre univers d'un univers fantôme (ghost universe) qui, interagissant uniquement avec le notre par le biais de la gravitation, "propulserait" celui ci. L'expansion de notre univers serait accélérée par l' univers fantôme, alors que notre univers freinerai celle de ce deuxième versant de la réalité.

Rien ne dit non plus que la valeur de l soit constante! la DEV peut être variable ( la période inflatoire pendant laquelle l'univers primitif se serait dilaté plus vite que la lumière proviendrait de cette variation). C'est la DEV et non la matière qui détermine le devenir d'un univers en expansion. Après le big bang, l'univers se dilate et certaines de ses régions ne peuvent interagir. Pourtant, l'univers est homogène dans tout les sens: des régions éloignées de 24 milliards d'Années Lumière n'ont pu interagir donc l'uniformité a du précéder l'expansion. La période d'expansion inflatoire a éloigné les objets plus vite que la lumière au début de l'univers. Cet étirement de l'espace-temps est provoqué par un champ inflatoire, l'inflaton, origine de l'antigravité.

Dans le cas le plus simple, l'expansion s'est ensuite produite à vitesse constante, et n'est que localement contrebalancée par la gravité. 300000 ans après le big bang, les atomes d'H apparaissent et l'univers devient transparent, libérant le rayonnement cosmologique diffus. Ce rayonnement est homogène avec des différences plus petite que 1/100000. Comment se sont alors formées alors les structures comme les amas de galaxies à partie d'un milieu si homogène au départ ? (des idées bientôt sur ce site)

il y a donc visiblement un problème dans la théorie standard des particules élémentaires: l'univers contient de la matière (ou de l'énergie) inconnue. Il reste également à lier la constante cosmologique au tenseur de Weyl, qui représente une courbure non massique de l'espace-temps jouant un rôle dans la détermination de la flèche du temps. Si la théorie de l'inflation est fausse, comment expliquer l'homogéinité de l'univers ?


Les Mânes de pythagore: de l'importance de la géométrie en astrophysique...

Plusieurs difficultés de la cosmologie ont pour origine des conditions initiales, des présupposés dont il faut savoir parfois s'affranchir pour progresser. Comme en toute science, le dernier mot doit revenir aux observations : "the tragedy of science is the murder of beautiful theories by ugly facts" :





Premier modèle explicatif de Quasar

Les quasars (quasi stellar radio sources) sont des objets extrêmement lointains (plusieurs milliards d'années lumières) rayonnant beaucoup (mais alors là beaucoup!) d'énergie. La plupart des astrophysiciens les décrivent sommairement en disant que ce sont des trous noirs supermassifs (107 fois la masse du soleil) environnés d'un disque d'accrétion. Certains font également intervenir des phénomènes collisionnels entre galaxies (bien que 25% des quasars ne montrent absolument aucun signe de collision... et que de nombreuses galaxies en interaction ne produisent pas de quasar...). Plus précisément, ces objets ont un diamètre voisin de celui du système solaire mais rayonnent autant qu'une galaxie entière! Ils émettent également des jets de matière à des vitesses proches de celle de la lumière (c). En 1998, Bahcall et Disney ont mis en évidence, en utilisant le télescope spatial Hubble, qu'au moins 75% des quasars appartiennent à une structure de type galactique.

Le quasar PG 0052+251 est au centre d'une galaxie spirale et émet au moins un jet ( à 1h) photo J.Bahcall- IAS - NASA

Jusqu'à ce jour, personne n'avait proposé de mécanisme expliquant la formation des quasars. Ce n'est plus le cas. En effet, JP Petit propose (Petit, 1997) un modèle lié à sa conception de la géométrie de l'univers. Je ne puis que renvoyer  à son ouvrage pour plus de détails, mais en résumant, il propose les idées suivantes:


Le neutrino enfin lourd !

Dès 1930, le remarquable physicien W. Pauli, découvreur du spin de l'électron et du principe qui porte son nom, avait supposé l'existence d'une particule nouvelle susceptible d'emporter l'énergie qui manquait après certaines réactions nucléaires. Cette particule, que Fermi nomma neutrino, possède la particularité d'être difficilement détectable, car elle se lie très peu avec les autres particules: voyageant à la vitesse de la lumière, 65 milliards de ces particules traversent à chaque seconde chaque centimètre carré de votre corps. Ils traversent le Terre comme si de rien n'était, et ce "bombardement" est donc permanent.. En 1956, ces particules produites dans un réacteur nucléaire ont été détectées pour la première fois, mais dès 1967 un irritant problème se posa: La quantité observée de neutrinos solaires était très inférieure à la quantité calculée: des neutrinos manquaient à l'appel! Pour expliquer ce déficit, on devait soit incriminer le soleil, qui ne devait pas fonctionner comme on le croyait, soit croire que les neutrinos ne se comportaient pas comme prévu.

En fait, il existe trois types de neutrinos, et les détecteurs n'en mettait en évidence, avec peine, qu'un seul. On pouvait croire que les neutrinos pouvaient se transformer d'une espèce dans l'autre au cours de leur voyage, et ainsi le déficit observé trouverai son explication. En 2002, plusieurs expériences (SNO, Kamland, super Kamiokande) ont montré qu'en effet, les neutrinos peuvent se transformer d'une espèce dans l'autre (dès 1998, il était établi que les neutrinos non solaires pouvait se comporter ainsi).

Ces résultats sont importants, car les neutrinos ne peuvent posséder un tel comportement si ils ont une masse nulle: le neutrino est donc massif. Ors, les neutrinos sont si nombreux qu'ils "pèsent" a eux seul autant que toute la matière visible de l'univers... Leur contribution à la géométrie de l'univers n'est donc pas négligeable.

Autre conséquence, il est possible, à présent que l'ordre de grandeur de la masse des neutrinos est connue, de les situer par rapport aux autres particules...On constate alors qu'ils se situent bien à l'écart de ces dernières.... Fait encore plus troublant, si, comme le modèle standard des particule le postule, la masse est donnée par une particule a découvrir, le boson de Higgs (tous les physiciens nucléaires sont sur sa piste!), ce boson ne peut donner une masse aux neutrinos... On a donc le problème suivant:

- si le neutrino est non massif, alors le soleil ne peut fonctionner comme on le pense

- si le neutrino est massif, alors l'ensemble des particules matérielles ne peut tirer sa masse du processus postulé jusqu'ici.

Et comme le neutrino possède une masse.... il va falloir compléter le modèle standard, credo de la physique depuis plus d'un demi siècle...


REFERENCES


Existons nous ?
(article que j'ai rédigé pour la revue effervescience, paru dans le N° 30 de Mars 2004)

"La science est le lieu ou les hommes de notre époque sont face à la vérité”  W. Heisenberg

De récents résultats obtenus dans l’étude des phénomènes complexes montrent que l’univers dans son entier pourrait n’être qu’un processus calculatoire. Dès lors, la conscience elle même pourrait n’être qu’une propriété émergente susceptible d’être simulée. Est-ce déjà le cas ?

Une idée ancienne

Platon, avec son mythe de la caverne, avait déjà envisagé la possibilité que nos perceptions conscientes ne soient que l’ombre d’une réalité inconnaissable, les phénomènes naturels n’étant que les ombres de formes éternelles. Avant lui, Pythagore et son école affirmaient que la seule réalité, c’était le nombre (ou plus exactement les entités géométriques décrites par des nombres), le reste étant illusion. Le courant de pensée qui fait de la réalité une suprême illusion se retrouve tout au long de notre histoire, sous des formes diverses, des aphorismes du chinois Tchouang -tseu (1) à l’idéalisme de Berkeley et aux écrits de Leibniz; de certains jeux de rôles des années 80 à la trilogie cinématographique “matrix” ! Le point commun à toutes ces conceptions est de postuler que derrière l’apparente complexité de la réalité se cache une harmonie mathématique secrète dont nous ne voyons que l’incertain reflet. Le “calme” débat philosophique autoréférent sur ces sujets a été bousculé depuis le début des années 1990 par de surprenantes découvertes qui en font, nous l’allons voir, toute l’actualité.

Le réductionnisme Cartésien face à son destin

L’importance des phénomènes complexes a été révélé petit à petit lorsque de nombreuses disciplines scientifiques se sont trouvées confrontées aux limites du réductionnisme, aux frontières de la méthode cartésienne. En effet, l’étude de nombreux systèmes composé de plusieurs éléments en interaction montre que le comportement du système ne peut être prévu par l’étude séparée de chacun de ses éléments: leurs combinaisons font surgir des comportements inattendus, et le tout est plus, comme le disait Aristote, que la somme de ses parties.

 Il est facile d’illustrer ce concept par l’exemple d’un tas de sable: si l’on se concentre sur la position, les interactions et le bilan des forces s’exerçant sur chacun de ses grains, l’évolution d’un tas de sable est impossible à prévoir. Par contre, en se limitant à quelques variables globales (hauteur et  rayon du cône de sable), cette évolution devient tout à fait déterminée. Le point clé est qu’ici la décomposition du système à étudier en facteurs plus petit augmente inutilement la complexité de l’ensemble à analyser. L’approche réductionniste trouve ici sa limite, qui est celle d’une complexité croissante induite par la décomposition dun système en ses divers éléments, et elle est particulièrement mise en évidence par l’étude des organismes vivants. En effet, le lent démontage des organismes, de la cellule aux organites, puis aux molécules et maintenant au génome, a permis d’énormes progrès mais montre actuellement ses limites: comment mettre en relation les énormes volumes de données collectées par l’analyse des génomes? Les biologistes sont conduit à élaborer de nouveaux modèles prenant la forme de réseaux permettant de mieux décrire l’interaction des différents éléments qui est à la source des singularités du vivant.
Alors que se construisait la biologie moléculaire, dans les années 50, une autre approche, balbutiante, allait se focaliser sur la simulation du comportement des organismes au moyen d’automates, éléments graphiques obéissant à des règles mathématiques précises. Comme souvent, cette approche exotique, théorique et ignorée de la plupart des biologistes allait fournir le socle de ce qui pourrait constituer une remise en cause radicale de nos conceptions...

Où les mathémagiciens s’en mêlent

C’est l’un des plus grand mathématiciens du 20ème siècle, J. von Neumann, qui mis au point ces automates, inventés par S. Ulam dans le but de modéliser les caractéristique d’auto-reproduction des êtres vivants. Par la suite, les premiers spécialistes de l’informatique ont mis au point des simulations basées sur le comportement de ces automates, reproduisant les systèmes à étudier. Un de ces programmes est le “jeu de la vie” de J.H. Conway (2), mis au point en 1969 et simulant l’évolution d’une population de cellules vivantes.
 A quoi ressemblent ces “automates cellulaires”? Les plus simples se représentent le plus souvent sous forme d’une grille, chaque ligne représentant une avancée d’une unité temporelle. Le “comportement” (couleur par exemple) d’une case de la grille dépend de celui des grilles adjacentes au moyen d’une (ou de plusieurs) règle particulière. Pour des automates très simples, il n’existe que 256 règles possibles décrivant l’évolution de chaque case lorsque l’on avance d’une ligne dans le temps. Lorsque qu’une de ces règle est appliquées, il se crée alors un ensemble de motifs qui adoptent un comportement pour le moins surprenant.

Dès 1936, les mathématiciens K. Gödel, A. Church et le père de l’informatique, Alan Turing, ont posé les bases de la théories de la calculabilité et se sont intéressés au calcul mécanique. Dans ce cadre, Turing a montré que des automates cellulaires peuvent constituer ce que l’on appelle des “calculateurs universels”, et sont en fait théoriquement susceptibles de réaliser l’ensemble des calculs possibles. Il en découle que si les phénomènes, même les plus complexes, sont calculables, alors ils peuvent l’être par des automates cellulaires adéquats.

Mais qu’appelle t’on complexité d’un système ? Trois chercheurs (Kolmogorov, Solomonoff et Chaitin, que nous retrouverons) ont mis au point une mesure de la complexité d’un système, dite complexité de Kolmogorov. L’intéressant est que cette mesure nécessite l’utilisation des conceptions de Turing: la complexité d’un système se défini par la longueur du plus petit programme susceptible de l’engendrer (3). Cette approche s’est révélée particulièrement précieuse pour la description mathématique de phénomènes physiques tels que l’entropie où encore celle de la complexité croissante des systèmes apparaissants au cours de l’histoire de l’univers (4).

Cette possible intrusion des mathématiques dans la biologie n’a pas été accueillie avec enthousiasme par la majorité des biologistes, souvent fâchés depuis l’enfance avec cette discipline. De plus, la simulation a mauvaise presse, particulièrement en France, chez les biologistes, aussi bien dans l’enseignement, où elle est quasiment abhorrée, que dans la recherche où elle ne suscite le plus souvent qu’un intérêt poli. Cependant, des résultats intéressants ont déjà été obtenus par l’étude d’automates cellulaires: en 1995, le comportement des cellules de l’utérus a pu être modélisé (5) de façon à étudier le mécanisme du déclenchement de l’accouchement. Le développement des structures en feuillets caractéristiques du début de l’embryogenèse a aussi pu être reproduit de cette façon (6) ainsi que, plus prosaïquement, celui du follicule pileux, très étudié en cosmétologie. Le comportement des vrai cellules semble bien pouvoir être décrit par celle des cellules virtuelles d’un univers mathématique. Malgré tout, ces étranges grilles pour informaticiens semblaient ne posséder qu’une utilité exotique et se cantonner à un rôle accessoire pour scientifiques fana d’ordinateurs en manque d’excentricités.
Cependant, le potentiel insoupçonné des automates cellulaires n’allait pas tarder à se révéler sous la plume de physiciens passé maîtres dans la modélisation des systèmes complexes qui résistent à l’analyse classique. Ils allaient oser étendre la pertinence du concept à la base des automates, à savoir la possibilité qu’un calcul simple répété engendre des comportements complexes, à l’univers entier.

Ceux par qui le scandale arrive
Nos trois larrons entrent en scène vers le milieu des années 1990. Il s’agit de S. Wolfram, E. Fredkin et S. Lloyd. Ce sont des  chercheurs d’un genre un peu particulier dont l’activité a été abondamment commentée, souvent en termes peu amènes, par les cercles académiques. Issus de l’industrie informatique, ces individus cumulent des défauts rédhibitoires aux yeux de l’establishment:
- ils ont fait fortune dans le software, et sont donc totalement indépendants des institutions que par ailleurs ils créent où financent parfois, ce qui les affranchit des compromissions inhérentes à la nécessaire conservation d’un emploi de chercheur dans un cadre universitaire classique ainsi que de l’usage de la diplomatie résultant de l’insertion dans le cadre hiérarchique d’un laboratoire de recherches.
- leur envergure intellectuelle est telle que l’on ne peut se permettre de les traiter comme de doux dingues qui passent leur temps à ratiociner sans fin sur des sujets qui les dépassent
- indépendants dans leur pensée, la publication de leur résultats ne suit pas les voies académiques habituelles. Ils ne se sentent pas tous obligés de publier dans des revues savantes au lectorat évanescent mais préfèrent s’éditer eux-mêmes et faire confiance au réseau internet pour diffuser leur idées (7, 8, 9). Par là même, ils s’affranchissent du contrôle tatillon et des coups de ciseaux qui donnent aux articles le ton scientifiquement correct correspondant à des notes écrites pour des motifs essentiellement administratifs et qui rendent la lecture des sujets les plus passionnants aussi stimulante que celle de l’annuaire des télécom.

Ces étonnants penseurs, que nombre de chercheurs aurait préféré voir se cantonner sur des plages de rêve, vêtus de lin blanc et sirotant des cocktails, se sont proposés de réfléchir à la genèse des processus complexes que la physique et son arsenal mathématique classique ont du mal à expliciter. S’appuyant sur plusieurs années de travaux disparates, ils ont ordonnés les résultats précédents et y ont apporté leurs contributions respectives, exprimées pour l’essentiel dans le volumineux ouvrage de l’un d’eux (10), S Wolfram (fondateur de la société “mathematica”) ainsi que sur leurs sites web personnels. Ces excentriques de la recherche, disposant à la fois des moyens intellectuels et financiers nécessaires à une recherche novatrice, possèdent qui plus est des personnalités bien marquées: Fredkin, millionnaire qui enseigna l’informatique au MIT et fut l’ami du physicien R. Feynman, vit à présent sur sa propre île tropicale; S. Wolfram est le richissime fondateur de Wolfram research et ses fascinantes capacités intellectuelles (il obtint son doctorat de physique à 20 ans) n’ont d’égale que son immodestie revendiquée; Lloyd est un universitaire spécialiste de l’étude et de la définition de la complexité au prestigieux M.I.T. de Boston.

Leur conviction s’exprime simplement: l’ensemble des processus à l'œuvre dans l’univers doit pouvoir être décrit comme un calcul, et ce calcul est susceptible d’être lui même simulé par une “machine de Turing”, autrement dit par un programme informatique. Il en découle que même les processus les plus complexes peuvent être décrits par un processus calculatoire relativement dont la répétition dans le temps engendre de la complexité, voire de l’indétermination, à partir d’une base parfaitement déterministe.
 Comme le précise Fredkin, cette conception est  “ une théorie atomique portée à son extrémité logique, où toutes les quantités de la nature sont finies et discrètes. Ceci signifie que, théoriquement, n'importe quelle variable peut être représentée exactement par un nombre entier. “ (7). Cette conception, propre à réjouir les mânes de Pythagore, n’est pas nouvelle (elle est partagée également par le mathématicien G. Chaitin) et avait déjà été formulée par le physicien J.A. Wheeler, mais elle implique l’abandon de deux concept fondamentaux qui n’ont jusqu’à présent que rarement été remis en cause:

 - L’hypothèse du continu: les physiciens pensent que notre espace-temps est un continuum, c’est à dire que l’on peut, par exemple, toujours définir un point-événement situé entre deux autres points. Ceci permet d’utiliser l’arsenal mathématique de l’analyse qui considère que certaines équations basées sur cette caractéristique peuvent être utilisées. Au contraire, Fredkin conjecture qu’à un niveau ultime, l’espace temps n’est pas continu mais constitué de cases d’espace-temps de dimension finies (idée que j'avais eu et présentée ici même il y a quelque temps, j'en suis heureux ;-). Cela implique l'abandon d’une deuxième notion.

- l’infinitude : si il n’existe pas de continuité, alors la nature n’héberge aucun infini, que se soit vers les petites dimensions où les plus grandes.

Il est assez révélateur de voir que ces conceptions s’accordent avec les développements réalisés par d’autres scientifiques travaillant selon des voies plus classiques. En effet, plusieurs physiciens pensent qu’a une échelle extrêmement petite, l’espace temps est quantifié et non continu (11, 12), et que, à l’autre extrémité des dimensions, notre univers ne serait infini qu’en apparence et résulterai de l’illusoire répétition d’un motif de très grande dimension, mais fini (bien que ne possédant pas de bords - 13).

Si ces hypothèses sont exactes, les mathématiques classique, et l’analyse en particulier, se révéleront impuissantes à appréhender la nature ultime de la réalité car les fonctions apparaissant en physique ne pourront plus être considérées comme étant continûment dérivables. Par contre, les automates cellulaires fournissent un moyen d’une puissance insoupçonnée pour étudier les phénomènes où l’approche classique déclare forfait (14). Ainsi, même des automates cellulaires très simples peuvent recréer à la demande des motifs périodiques (correspondant à des phénomènes cycliques, faciles à traiter classiquement), chaotiques (plus difficiles à générer) mais également organisés et dotés d’une complexité croissante (ce qui n’est pas mathématisable par les voies les plus classiques).

A ce stade, une remarque doit venir à l’esprit du lecteur perspicace (y en a t’il d’autres?): si des calculs combinant des quantités entières suffisent à expliquer la complexité universelle, alors quid des phénomènes d’indétermination rencontres à la fois en physique et en mathématique ?
En effet, ce n’est pas la moindre des surprises que de constater que cette nouvelle approche de la réalité implique l’existence d’une forme nouvelle de déterminisme qui se réintroduit dans la physique: les processus qui nous semblent aléatoires, chaotiques ou indéterminables ne seraient en fait que l’émergence de mécanismes commun parfaitement déterminés dont l’essence calculatoire nous resterait encore inintelligible. Examinons plus en détail comment l’indéterminisme résulte peut être uniquement de notre anthropocentrisme, ou plus exactement, nous le verrons, de ce que nous pourrions désigner du néologisme de “dimensionnisme”.

Incertitude, indétermination et  difficulté de penser le réel

La physique nous appris dès le début du 20ème siècle que la matière, au niveau atomique, présente un étrange comportement. Les particules élémentaires (bien mal nommées, puisque ce ne sont justement pas des particules, et que la plupart ne sont pas élémentaires...) qui constituent notre univers obéissent aux lois étranges de la physique quantique, qui semblent heurter le sens commun plus apte à manipuler les oranges que les neutrons. Cependant, comme le font remarquer S. Ortoli et JP.Pharabod (15) “les objets que nous connaissons ne sont pas des assemblages de micro-objets, mais des combinaisons d’entités élémentaires qui ne sont pas des objets”. Parmi les propriétés quantiques, le principe d’incertitude d’Heisenberg stipule que l’on ne peut connaître simultanément la vitesse et la position d’une particule. Toute précision accrue de la mesure d’une de ces quantité se traduit par une imprécision croissant au niveau de l’autre quantité. Comme des expériences récentes ont amplement confirmé cet état de fait, il peut paraître évident que des processus calculatoires parfaitement déterminés ne peuvent rendre compte de cette indétermination fondamentale.  C’est là une erreur qui tient à la fois au biais causé par nos perceptions sensorielles et au caractère réel de l’indétermination.

En effet, cet indéterminisme n’apparait que lorsque nous voulons a toute force raccrocher la description des électrons, par exemple, à des objets comme des ondes ou des particules, ce qu’ils ne sont pas! Le physicien M. Bunge a d’ailleurs forgé le néologisme de “quanton” plus à même de correspondre au comportement des entités que sont l’électron, le photon, les protons et leur collègues... En effet, l’électron, par exemple, n’est ni onde ni corpuscule, c’ est un objet physique dont la description exacte ne saurait être que mathématique, sous la forme d’une fonction d’onde, laquelle est définie en tout point et ne fait pas apparaître cette fameuse indétermination qui ne surgit que lorsque nous voulons à toute force faire rentrer le comportement de l’électron dans des notions macroscopiques comme la trajectoire, la vitesse ou la position. Loin d’être une limite à la précision de nos mesures, l’indétermination ne résulte que de notre incapacité à penser en termes “non classiques”, obsédés que nous le sommes par des idées comme le plan, la droite, le plan, la trajectoire... qui n’ont pas leur pendant dans le monde atomique! Nous voulons soumettre les lois du monde à celles auxquelles sont soumise les objets de notre dimension, et ce “dimensionnisme” est la source de nos difficultés. Ainsi que le déclare S. Hawking (16) “ L'imprévisible, l'élément de hasard, n'intervient que lorsque nous essayons d'interpréter l'onde en termes de positions et de vitesses de particules. Mais peut être est-ce notre erreur: peut-être n'y a t'il ni position ni vitesse de particules, seulement des ondes."    
Ainsi, l’indéterminisme ne résulte que de notre anthropomorphisme intellectuel. Il en est de même pour les phénomènes chaotiques, où le hasard se conjugue au déterminisme. L’analyse de systèmes très sensibles à leurs conditions initiales (climat, prévisions météorologiques, turbulences...) montre que dans ces systèmes les incertitudes de mesure vont en s’amplifiant jusqu’à influer de façon notable sur le déroulement de l’évolution du système. Malgré tout, un système chaotique est pleinement déterminé mathématiquement même si il reste physiquement indéterminable à long terme .

Un monde d’automates
 Les automates cellulaires les plus simples, qui représentent en fait un calcul qui se répète indéfiniment (itératif), permettent donc de simuler nombre d’aspect de phénomènes aussi complexe que l’organisation des tissus d’un être vivant où la dynamique d’une population. S. Wolfram étend cette compétence calculatoire à de nouveaux domaines et montre que les automates simples, définis pleinement en une ligne de code informatique, peuvent reproduire des phénomènes aussi divers que la croissance des cristaux, la morphologie des végétaux ou les turbulences que la mécanique des fluides peine à traiter. Cette troublante capacité de voir le calcul engendrer la forme amène à l’idée que les automates cellulaires peuvent fournir une nouvelle façon de comprendre la nature, se superposant ou remplaçant l’analyse mathématique classique qui se révèle bien souvent défaillante. Ainsi, l’ensemble des fondements de la physique peut être reformulé en termes calculatoire. C’est le credo de Fredkin, qui rejoint ici, après 26 siècles, la pensée de Pythagore: au “tout est nombre” du philosophe, il oppose un étonnant “tout est calcul” qui offre un cadre nouveau aux sciences de la nature. C’est également la voie suivi par Wolfram qui propose d’étudier les processus naturel comme étant les résultats de calculs modélisables par des automates, et bornant la complexité de la nature à celle des calculs réalisables avec ces moyens mathématiques. Cette approche est loin d’être acceptée sans réticence, et les difficultés les plus sérieuses proviennent de ce qu’il n’est pas possible, selon G. Chaitin, de prouver qu’un programme particulier est le plus simple des programmes possibles engendrant la complexité constatée. En d’autre termes, le fait de savoir si l’on a un bon modèle ou le meilleur modèle possible est indécidable et indémontrable.

Cela n’empêche pas Seth Llyod de proposer de pousser cette conception (baptisée “réductionnisme computationnel”) dans ses dernières limites, et de considérer l’univers entier comme un calcul (17) ayant effectué à ce jour un maximum de 10(120) opérations élémentaires. Ce calcul pourrait n’être vu que comme une récréation spirituelle, mais l’étonnant est que le chiffre obtenu dépend uniquement des valeurs des constantes de la physique, et qu’il correspond à ceux découverts par le physicien Paul Dirac dans son “algèbre des Q nombres” où il se proposait d’étudier la signification des valeurs des constantes de la physique! Llyod en déduit que la simulation totale et parfaite de l’univers depuis son émergence est théoriquement  possible (18). Il en découle une interrogation fondamentale, qui paraît folle à première vue, échappée d’un film à succès, mais qui ne peut être écarté: vivons nous dans l’univers réel ou dans une simulation parfaite de celui ci? Existons nous ?

L’insoutenable calculabilité de l’être
    Déjà le physicien J.A. Wheeler avait proposé l’aphorisme selon lequel, la physique n’étant qu’information, l’être venait lui aussi de cette information (“it from bit”). Plus récemment, Nick Bostrom, de l’université d’Oxford, a proposé dans un article (19) un argument selon lequel les probabilités sont maximales pour que nous vivions à l’intérieur d’une simulation informatique. Son raisonnement (dont certaines étapes prêtent, selon moi, le flanc à la critique sans que pour cela sa conclusion soit remise en cause) est que si la simulation d’une conscience est possible (ce qui serait, nous l’avons vu, le cas) alors nos descendants lointains réaliseront cette simulation, pour peu que la durée de vie de notre civilisation le permette. Dès lors, le nombre de consciences pouvant être simulées dans une machine future (noter bien que comme il s’agit d’une simulation, il ne s’agit pas d’une machine pensante - les oppositions de R. Penrose (20) à l’élaboration des machines pensantes ne tiennent pas ici) pourra être très grand, très supérieur à celui des 6 milliards de consciences habitant actuellement notre planète, et ceci de plusieurs ordres de grandeur. Il en découle que vu le nombre de consciences simulables, le seul fait d’être nous même une conscience nous place d’emblée dans la situation la plus probable, à savoir celle de faire partie des centaines de milliards de consciences simulées plutôt que du “petit” nombre de consciences “réelles”...
 Hâtons nous de dire que, dans ce cas, nous n’avons aucun moyen de savoir si nous sommes ou si nous ne sommes pas vraiment: être ou ne pas être, telle n’est plus la question! Tout juste pourrait on subodorer les options philosophiques des programmeurs de la simulation en fonction des événements que nous vivons, mais la recherche de ces indices subtil ne serait guère probante...

Toutefois, si l’univers est bien le résultat d’un calcul, que celui ci soit réel ou simulé, nous tenons peut être là l’explication de la “déraisonnable efficacité des mathématiques”, car comment expliquer sinon comment une pure abstraction issue de l’activité de l’esprit humain réussisse si bien à décrire et à prévoir les phénomènes où l’homme n’intervient pas ? Les mathématiques régiraient le monde parce que ce dernier est, dans son essence, une mathématique...

Une incertaine réalité
Gageons que nous regarderons à présent nos ordinateurs d’une autre façon... Mais que se rassurent les inquiets: le mathématicien Godel a démontré que dans toute axiomatique surgit nécessairement au moins une proposition indécidable, qui ne peut être réduite mais seulement “déplacée” vers d’autres propositions. Tout système logique repose donc sur un parti pris, un acte fondateur, un acte de volonté consciente. Ainsi que le déclarait, prophétique, Werner Heisenberg (21) en 1942 : “Lorsque à tel lieu de la vie de l’esprit une connaissance fondamentalement nouvelle se présente à la conscience des hommes, il faut toujours réexaminer et à nouveau résoudre la question de savoir ce que la réalité est véritablement.” 


Références

1 - “Un jour j’ai rêvé que j’étais un papillon, et à présent je ne sais plus si je suis Tchouang-tseu qui a rêvé qu’il était un papillon ou bien si je suis un papillon qui rêve qu’il est Tchouang-tseu “ - 350 av. JC
2 - Gardner M., The fantastic combinations of John Conway’s new solitaire game of Life. Scientific American 223, 4/1970, 120-123.
3 - Delahaye JP. L’intelligence et le calcul. Ed Belin, 2002
4 - Li M, Vitanyi P. An introduction to Kolmogorov complexity and its aplications. Springer-Verlag, 2nd ed., NY, 1997
5 -Ikonicoff R. Science & vie 938, 11/95, 67-75.
6 - Lafforge B, Cahnce A, Kupieck JJ. Selection model for cell differenciation. Cell death and differenciation 3, 1996, 385-390.
7 - Fredkin: http://www.digitalphilosophy.org
8 - Wolfram : http://www.wolframscience.com
9 - Loyd : http://www-me.mit.edu/people/personal/slloyd.htm
10 - Wolfram S. A new kind of science ; 2002, S Wolfram LLC. Intégralement disponible sur le site de l'auteur
11 - Meesen A. Spacetime quantification, elementary particles and cosmology. Foundations of physics, 29, 2000, 281-316
12 - Bekenstein J. L’univers holographique. Pour la Science 313, 11/2003, 42-50
13 - Luminet JP. L’Univers chiffonné. ed. Fayard - le temps des sciences, 2002
14 - Delorme M, Mazoyer J. La riche zoologie des automates cellulaires. Pour la Science 314, 12/2003 40-46
15 - Ortoli S., Pharabod JP. Le cantique des quantiques, ed. essais la Découverte, 1998
16 - Hawking S.  Brêve histoire du temps - ed. J'ai lu, 207
17 - Lloyd S. Computationnal capacity of the universe. Physical review letters, 88, 23, 237901/1-4, 2002 et un article qui s’en inspire en français: Delahaye JP.  L’ordinateur ultime. Pour la Science 305, 03/2003, 103
18 - Une revue de ce problème a été présenté: L’univers est il un calculateur ? Dossier “la recherche 360, 01/2003, 33-43
19 - Bostrom N. Are you living in a computer simulation? Times Higher Education Supplement, 16/ 05/ 2003 - preprint de l’article complet pour la revue The Philosophical Quarterly : www.simulation-argument.com .
20 - Penrose R. L’esprit, l’ordinateur, les lois de la physique. Intereditions, 1992.
21- Heisenberg W. Le manuscrit de 1942, ed. Allia, 2003

Sites interessants
- sur la complexité de Kolmogorov, de très nombreux articles originaux à télécharger librement
http://www.cs.ucsb.edu/~mli (page du Pr Ming Li, de l’université de Californie).
http://www.cwi.nl/~paulv/kolmcompl.html

- sur les thèses de Wolfram (avec l'intégralité de son livre, supplément de problèmes à résoudre, illustrations): http://www.wolframscience.com

- sur les automates cellulaires:
 http://hensel.lifepatterns.net - ce site recence et permet de télécharger des programmes de création d’automates pour les différents systémes d’exploitation informatique. Un programme en java (“enjoy life”) donne en ligne une vue de certains automates.
Le shareware lifelab permet de s’entrainer à fabriquer des automates cellulaires (pour mac): http://www.trevorrow.com/lifelab
Il est également possible de construire des véhicules virtuels simples qui possédent des comportements complexes sur http://www.spiderland.org (breve simulation environment - pour mac).

- sur les remarques de G. Chaitin:
http://www.cs.umaine.edu/~chaitin
Sur ce site, il y a de nombreux articles de ce mathématicien, dans toutes les langues.



ANNEXES

 

L'énergie du vide

Dans notre univers, le vide n'existe pas: tout dépend de l'échelle de temps à laquelle on l'observe. En effet, comme le montrèrent P. Dirac puis plus tard Feynman, Zeldovitch, Tomonaga et Aswinger; des particules élémentaires naissent continuellement du néant avant d'y retourner, et ceci dans un temps si bref que toute mesure de ces particules virtuelles est impossible.

L'énergie du vide se mesure par son influence gravitationelle: la densité énergétique du vide (DEV) déforme l'espace-temps donc a des conséquences sur la gravitation. La DEV est proportionnelle à la constante cosmologique, qui est l'inverse du carré d'une longueur (donc elle est liée à une distance correspondant à l'échelle ou la DEV modifie les propriétés de l'espace-temps par ses effets gravitationnels).

Il ne s'agit pas là d'une fumeuse théorie: les particules virtuelles ont pour conséquence pratique une force attractice qui s'exerce sur des plaques métalliques très proches (c'est l'effet Casimir): la distance faible entre les plaques empêche la formation de particules d'une longueur d'onde supérieure à la distace entre les plaques. En dehors de ces plaques, les autres particules virtuelles continues de se former et la différence de "pression" exercées par ses particules sur les plaques induit leur rapprochement. Cet effet a bel et bien été constaté. De plus, ces particules virtuelles contribuent à la formation du spin des nucleons: outre 3 quarks qui forment les nucleons, un nombre considérables de quarks et d'antiquarks virtuels (étranges) interagissent pour former le spin du nucleon, qui pour l'heure en devient incalculable. (cf. K.Rith & A Schäfer, 1999).

Le mystère de la physique

En 1967, Yakov Zeldovitch montre que l'on peut identifier l'énergie des particules virtuelles à celle de la constante (?) cosmologique. Cependant, le calcul montre que les particules virtuelles constituent un ensemble susceptible de couvrir tout l'éventail des longueurs d'ondes disponibles: en additionnant les effets de toutes ces particules, l'énergie totale de la constante cosmologique devient infinie.... et l'univers ne peut alors exister!

Si l'on néglige certaines longueurs d'onde on se retrouve quand même avec une valeur de l'énergie de la constante supérieure de 10120 à celle qui est constatée par l'observation !

 

Modèle standard

Le comportement des particules élementaires est décrit par la théorie quantique des champs (1 particule est associée à 1 champ) mais cette théorie aux nombreux succés possède de nombreux paramètres libres (non déterminés). Dans cette optique, la densité énergétique du vide (DEV) correspond à une densité minimale mais différente de 0 au besoin. Cette DEV dépend de trois termes:

On suppose que l est du même ordre que les composants mesurables: dès lors son effet se ferait sentir sur des distances de l'ordre du km... et la géométrie euclidienne n'existerait pas. Si l négatif alors l'espace temps à une déformation hyperbolique (en entonnoir) alors que si l positif il subit une déformation sphérique. On pensait que la vitesse d' expansion de l'univers diminuait car la matière était plus importante que le vide quantique mais ce n'est apparemment pas le cas..

Le désaccord entre les mesures expérimentales (issues des supernovaes lointaines mais aussi tout simplement de l'expérience sensible) et la thèorie quantique des champs implique apparemment une erreur magistrale dans les hypothèses: on suppose que les paramètres du modéle standard sont indépendant, ce qui doit être faux! l n'est pas nulle mais positive, et les compensations qui expliquerait la différence entre valeur théorique et mesurée seraient quasi miraculeuse: le problème peut résider dans la théorie quantique des champs et sa description du vide (champ de Higgs entre autres) ou bien dans notre conception de l'espace temps.

La "théorie des grands nombres"

P Dirac était pénétré par l'importance de l'élégance mathématique des théories, peut lui importait les faits. Il formula a sa façon la mécanique quantique ("algèbre des q-nombres") en partant des travaux de W. Heisenberg. Born, Heisenberg et Jordan formulérent cette mécanique quantique sous forme matricielle puis Schrödinger établit la mécanique ondulatoire. Dirac relia ces différentes interprétations et les complèta fin 1927. Il dut alors admettre l'existence de l'antimatière et postula l'existence de particules très massives, les monopoles magnétiques.

Il cherchera en vain à améliorer l'électrodynamique quantique, et critiquera en vain la renormalisation introduite en 1947 par Tomonaga, Feynman, Schwinger et Dyson pour éliminer le probème des quantités infinies qui apparaissaient dans les calculs.

Sous l'influence de Milne, Eddington et Chandrasekhar, il propose un nouveau modèle de l'univers ou il essaie de relier mathématiquement la physique quantique et la cosmologie.

Le laconique P . Dirac en action
(devant, ce n'est pas moi!)
Son approche rationaliste prend corps dans sa "théorie des grand nombres": en combinant les constantes physiques sans dimension, il remarque leur similitude pour peu que l'on utilise des unités de mesure adaptée .

Au lieu d'y voir des coïncidences, il y voit les indices d'une théorie cosmologique sous jacente: "Tous les grands nombres purs de la nature sont liés 2 à 2 par une relation mathématique simple dont les coefficients sont de l'ordre de l'unité"

Il en conclut que G, la constante de gravitation, est inversement proportionelle à l'âge de l'univers: les constantes deviennent variables (ses opinions restent cependant isolées, ce qui ne signifie pas nécéssairement qu'elles soient fausses...). De nos jours, un modéle d'univers développé par JP Petit et ses collaborateurs (mais peu connu!) repend et développe cette idée de variabilité temporelle des constantes physiques.


Plus vite que la lumière - par dela l'espace temps

"qui veut voyager vite ménage son univers "(proverbe personnel)

Tant qu'aucune nouvelle découverte ne viendra compléter sa description de notre univers, la théorie de la relativité nous indique qu'il est impossible à un objet matériel d'atteindre et de dépasser la vitesse de la lumière. Même avec le phénomène de la contraction temporelle, les voyages spatiaux au long cour nous semblent donc à ce jour plutôt irréalisables en l'état... Est ce bien sur? Des esprits audacieux réfléchissent déjà aux différentes possibilités de briser le "mur de la lumière" mais gardons bien présent à l'esprit ce fait: dans notre univers, voyager dans l'espace, c'est aussi voyager dans le temps!

Car l'espace-temps est déformable, et si l'on peut le déformer suffisamment, nous pouvons rapprocher de nous tout point de l'univers susceptible de motiver notre intérêt. Comment faire? Si l'on couple un transport temporel et un transport spatial, tout devient possible, comme l'a montré S.V. Krasnikov en 1998 ("hyperfast interstellar travel in general relativity-physical review 1998, 4760).

Un vaisseau spatial (appelons le, avec beaucoup d'efforts d'imagination, l'entreprise!) quitte la Terre au Temps terrestre T0. Il navigue à vitesse subluminique, mais la contraction temporelle fait qu'il parvient à destination en 3 ans, représentants 300 ans sur Terre. Pendant son parcours, il a déformé l'espace temps, créant un "tube de Krasnikov". Sur Terre, on en est à T300 ans. Pour son retour, l'enterprise emprunte la déformation qu'il a crée à l'aller: il voyage alors "a rebrousse temps" pour un observateur terrestre, et revient donc sur Terre à un temps T+n voisin de T0.

Comment déformer l'espace-temps? on peut le contracter avec de la masse (beaucoup!) donc de l'énergie, mais pour le dilater il faudrait un facteur qui soit l'inverse de la gravitation, comme par exemple la force mystérieuse liée à la constante cosmologique...

D'aucuns dirons: "voici des spéculations de chercheurs solitaires qui feraient mieux de s'ateller à résoudre des problèmes plus concrets!" . On disait aussi cela de ceux qui, il y a un siècle, étudiait la structure de l'atome... avec les résultats que l'on sait! Connaître est un défi qui réclame, plus que de l'application, de l'imagination. Que celui qui a des oreilles entende!