Critique de livres

"Doctus cum livro"

les critiques sont en cours.... (ma bibliothèque est fournie) seuls les titres en gras sont analysés pour le moment....



André Pichot - histoire de la notion de gène. Champs, Flammarion, 1999 --- 4/20

Etienne Klein - Il était sept fois la Révolution : Albert Einstein et les autres...  2005 ---- 16/20

Murray Gell-Mann: Le Quark et le Jaguar : Voyage au cœur du simple et du complexe. Champs, Flammarion----- 16/20

Stephen Wolfram: A New Kind of Science ----- 15/20

E. Hecht: Physique ----- 17/20

R. Thom: prédire n'est pas expliquer

N. Witkowski - Une histoire sentimentale des sciences

B Greene - l'Univers élégant
--- 17/20

Von Neumann - L'ordinateur et le cerveau


Eléments d'histoire des sciences - Reférences Bordas - Sous la direction de M Serres.

Niels Bohr et la physique Quantique. F. Lurcat - seuil - points sciences

Le paysage cosmique  (L. Suskind) vs rien ne va plus en physique (Lee Smolin)



André Pichot - histoire de la notion de gène. Champs, Flammarion, 1999

ISBN 2-08081423-0

Le Livre de “Mr” Pichot est de prime abord intéressant: on s’attend à y trouver exposer l’histoire de la notion de gène, base de la biologie moderne. Hélas, cet universitaire épistémologue se complet dans une “alter” biologie qu’il critique vertement sans paraître comprendre un traître mot aux notions postérieures aux années 50.

En effet, l'œuvre de Pichot s’articule autour de trois axes:
- la réhabilitation de Lamarck, ce qui est utile et bien réalisé.
- la critique des conséquences sociales de la génétique et de l’eugénisme en particulier, la génétique étant rendu responsable des sociétés l’utilisant peu ou prou pour sélectionner leurs concitoyens.
- la dénonciation de la génétique moderne, laquelle ne serait qu’un vide conceptuel béant, sans aucune base théorique valable...

L’horreur vertueuse et philosophique de la sélection conduit Mr Pichot à des extrémités regrettables et a des conceptions erronées. Son discours est truffé de répétitions souvent inutiles, de digressions sans grand intérêt, sinon celui de se persuader soi même d’être dans le vrai. Ainsi, le camarade Pichot (il faut bien l’appeller par son nom) en vient à réhabiliter Lyssenko! Comme nombre d’intellectuels français confits dans le marxisme, la notion même d’hérédité, c’est à dire, in fine, celle de l’héritage d’un ordre, est intolérable à ceux qui ont proclamé “du passé, faisons table rase”. Ainsi, la vision de l”historicité des processus épistémophiliques de l’auteur demeure hémiplégique: fasciné et justement horrifié par les déviances nazi, il en “oubli” volontairement les millions de morts provoqués par l’application des doctrines de son ami Lyssenko...

De fait, Pichot rappelle, avec force soupirs, avoir lu l’intégralité des textes aussi encyclopédiques qu’imbuvables de Weismann et De Vries, ce qui explique sans doute pourquoi il s’est apparemment dispensé d’ouvrir un ouvrage tout aussi épais mais moderne de biologie moléculaire (comme par exemple le classique “biologie moléculaire du gène”, de Watson). Il en reste au schéma “un gène- une enzyme”, qui n’est plus actuel. Qui plus est, alors que l’histoire du gène est bien exposé jusque vers 1950 environ, il recule ensuite pour revenir à ses grimoires: il semble bien que pour Mr Pichot, une “vrai” sciences de l’hérédité est faite de ratiocinations de vénérables et doit surtout se garder de toute application pratique (c’est gênant, toutes ces sales expériences qui polluent les belles théories - notre épistémologue de salon semble avoir oublié que “the tragedy of science is the murder of beautiful theories by ugly facts”). Notre littérateur engagé semble passer à coté des critères réels de la scientificité et néglige, omet, déforme ou passe sous silence (attitude marxiste typique) les faits qui dérangent sa tranquille (et théorique) ire antiscientifique. Donnons quelques exemples de ces errements:

p 227: suggestion qu’un ordre aléatoire de nucléotide est équivalent à un gène. Reste a expliquer alors l’effet dévastateur des mutations et délétions.

p 242 : Le bon Mr Pichot ignore complètement ce que sont les ARN

p 268 : Le camarade Pichot ignore ce qu’est la théorie synthétique de l’évolution, et nous ressort des arguments spécieux visant à démontrer selon lui l’inanité de l’évolution (argument d’actualité, il date de... Cuvier!). Malheureusement, non seulement les séparations actuelles des plans d’organisation ne prouvent rien, mais l’on a depuis découvert d’autres taxons disparus (cf “la vie est belle” de Gould), ainsi que des formes intermédiaires entre les taxons, apparus au cours de l’évolution (neopillidina, Lizzie, le célèbre archaeopteryx bien sur, mais aussi Acanthostega, Protarchaeopteryx, iberomesornis ...)

    Ce qui revient comme un leitmotiv dans le deuxième partie de l’ouvrage, c’est le dégout de l’auteur pour toutes les applications pratiques et les succès obtenus par la génétique. Bien entendu, ces succès sont, pour l’auteur, peu important. En effet, ce dernier ne s’intéresse qu’à l’être humain (survalorisation qui indique à la fois les limites de son analyse et son désir de séparer ce dernier des autres êtres vivants, ce qui se comprend puisque pour le sieur Pichot, l’évolution n’existe pas...) et néglige complètement le fait que les techniques de biologie moléculaire visant à transférer ou inactiver un gène sont à présent des techniques de routine employées quotidiennement dans les laboratoires: que cela plaise ou non à Mr Pichot, le succès répétés des techniques expérimentales (souris “knock out” par exemple, où transgèniques) valident grandement les conceptions actuelles du gène.

Bien entendu, ces conceptions peuvent être critiquées: bien qu’expédiées en peu de lignes, les approches critiques de P. Soligno ou  H. Atlan sont à cet égard bien plus constructive que les cris d’orfraie d’un homme qui, déplorant l’utilisation de la génétique par le régime nazi, choisi de jeter le bébé avec l’eau du bain...

Au final, on peut cependant recommander l’ouvrage :
- pour sa belle mise en évidence du rôle de Lamarck dans l’histoire des sciences et son analyse lumineuse des conceptions de de Vries et Weissman.

- ses rappels des limites de la méthode expérimentale.

- Pour analyser à quel point des spécialistes des dites “sciences” humaines peuvent discourir dans le vide et pratiquer ouvertement un négationnisme, voire un nihilisme antiscientifique qui ne saurait combler d’aise que ceux qui prennent José Bové pour le phare de la pensée biologique contemporaine


Murray Gell-Mann: Le Quark et le Jaguar : Voyage au cœur du simple et du complexe

 L'auteur a reçu le prix Nobel de physique en 1969, pour sa théorie des quarks, constituants extrêmes de la matière.
Dans ce livre, il analyse comment évolue la complexité des phénomènes depuis l'échelle subatomique jusqu'à l'échelle macroscopique. L'ensemble est extrêmement intéressant, bien écrit et convenablement traduit. L'auteur insiste longuement sur le Santa Fe Institute, qu'il a créé, et milite pour un progrès technique respectueux de l'environnement. C'est à ce niveau que certains de ses arguments se révèlent un brin léger.

Toutefois, ce livre éclaire convenablement la genèse de la complexité, et insiste à juste titre sur les notions de régularités. Quelques remarques:

p.68: "la complexité effective est ainsi liée à la description des régularités d'un système par un système adaptatif complexe qui l'observe" : il me semble que cette définition est autoréférente: la complexité nécessite, pour être définie, l'existence d'une structure en elle même complexe. Mais qu'est ce qu'une structure complexe? et bien, c'est une description des régularités ect.... Heureusement, les choses s'éclaircissent quelques pages plus loin (p. 74): "la complexité effective d'une entité... est la longueur d'une description concise des régularités de l'entité" . On retrouve ici les idées de Kolmogorov.

p. 121-122: l'auteur présente les notions très intéressantes de profondeur et de crypticité, développées par C. Bennet. Il mentionne auparavant que "dans une étonnante variété de contextes, des structures de comportement apparemment complexe émergent de systèmes caractérisés par de très simples règles". Il ne s'y attarde guère, mais il s'agit bien ici des phénomènes recensés et développés ultérieurement par S. Wolfram dans son ouvrage "a new kind of science".

Le passage du quantique au classique est particulièrement bien traité (chapitre 11: "un regard contemporain sur la mécanique quantique"). d'agraindissement en décohérence, on sort de ces chapitres moins bêtes qu'en y étant entrés. Leur lecture devrait être obligatoire en premier cycle de sciences....
L'auteur pose une excellente question p 221: comment se fait il qu'il y ait tellement de particules "élémentaires" (il en compte 61 !) ? Il voit bien là la nécessité d'une théorie "unifiée" explicitant cet état de fait, et propose trois pistes à explorer:
- les 61 particules sont en fait composées d'autres particules inconnues, en nombre plus réduits. Aucun indice de cela n'existe.
- les 61 particules sont composées de particules qui elles mêmes sont composées de particules.... sans fin. Cette idée puissante ayant été proposée par le président Mao, nous vous laissons juge de sa pertinence...
- les particules sont en nombre infini, mais seuls un petit nombre est détectable, du fait de leur origine à partir d'objets uniques, les supercordes (voir Greene, l'univers élégant, en film ou en livre)
L'auteur n'envisage pas une autre possibilité, faisant des particules des objets topologiques résultant de projections dans notre espace temps de phénomènes se déroulant dans des dimensions différentes (bien que ce concept de dimension surnuméraires pose problème, même pour les supercordes)
P 248 et suivantes, l'auteur décrit clairement les rapports entre la notion d'entropie, et celle, plus nouvelle d'information.

Les êtres vivants sont considérés comme des "systèmes adaptatifs complexes" qui (p. 306): "identifient des régularités dans le flux de données qu'ils reçoivent et compressent ces régularités en schémas. " cette définition est extrêmement pertinente.

L'impossibilité d'un déterministe strict (et donc d'une prédictibilité absolue des phénomènes) est analysée par l'auteur qui ne se limite pas aux caractère probabiliste de la mécanique quantique. Il identifie 5 origines pour l'indéterminisme :
- les indéterminations quantiques
- le comportement chaotique
- l'"agraindissement" provoqué par "l'étroitesse  du spectre couvert par nos sens et nos instruments et leur capacité limité"
- l'insuffisance de notre faculté de comprendre
- les limites de notre capacité de calcul.


Il y a également quelques "erreurs", en particulier dans le domaine biologique, causées pour la plupart , en fait, par des découvertes survenues depuis la publication de l'ouvrage en 1994:

p.87 : "il existe quelques légers signes en biologie de mutations survenues comme réponses occasionnelles à un besoin". J'avoue qu'une référence n'aurait pas été de trop, car ce singulier phénomène n'existe pas, je crois (et même l'auteur ne semble pas persuadé de sa véracité).

p. 88: "la complexité de la bactérie est liée à la longueur de son génome": On a découvert depuis que la longueur d'un génome était un piètre indice de complexité effective ! De même, à la page suivante, l'auteur pense qu'il est nécessaire de rajouter des notions plus fines pour différencier la complexité humaine de celle des grands singes. Je pose la question: existe t'il réellement des différences de complexité à ce niveau ? Une grande parti de l'évolution biologique semble s'être déroulée, selon moi, à complexité constante.

Pour les pédagogues, Gell Mann apporte quelques lueurs sur la pratique des sciences:

" En pratique, l'entreprise scientifique ne se conforme pas exactement à un quelconque modèle précis dictant les règles de sa conduite" p 99

p 130 "les mathématiques ne sont elles pas la plus fondamentale des sciences ?"

p 137 "la biologie est une science bien plus complexe que la physique fondamentale car nombre des régularités de la vie terrestre résultent autant d'évènements accidentels que de lois fondamentales"

p 302 -303: l'"histoire du baromètre" (parfois faussement considérée comme autobiographique et concernant la jeunesse de Planck) vous permettra de voir qu'en physique, il n'y a pas, contrairement à ce qui est enseigné, une seule solution à un problème donné...

superstition et besoin de croire (p 314): " ils apaisent leur crainte de l'aléatoire par la détection de régularités... absentes."

En résumé, un excellent livre que tout homme de science se doit d'avoir lu.


Von Neumann - L'ordinateur et le cerveau

Un petit livre très intéressant, que l'on pourrait croire d'un intérêt seulement historique au vu de l'évolution technique depuis 1957, mais qui présente une grande importance pour comprendre la genèse de l'informatique et, surtout, pour mettre en parallèle la logique du vivant (cerveau) et celle des machines.
Plusieurs notes dans le texte réactualisent beaucoup de données, et le commentaire de D Pignon (40 pages sur les 128 de l'ouvrage) compléte fort bien les textes de V. Neumann.

Quelques points importants:

- p. 77, V.Neumann remarque que la précision du cerveau est très inférieure à celle des calculateurs, et mentionne bien que " Le système nerveux est un ordinateur qui parvient à accomplir sa tache extraordinairement complexe à un niveau assez faible de précision(...) 2 à 3 décimales seulement sont possibles. Aucun ordinateur connu ne peut opérer de façon fiable et pertinente avec une précision aussi faible".

- p. 111:, D Pigeon souligne l'apport de V Neumann à la théorie des automates cellulaires dont la protée, depuis le recueil publiée par S. Wolfram, ne cesse de crôitre. Ainsi, comme le rappelle Pignon "Mc Culloch et Pitts ont formalisé cxette physiologie des tissus nerveux avec la modélisation des reseaux formels de neurones et ont démontré que les états de ces systèmes sont isomorphes aux propositions de la logique: tout ce qu'une machine de Turing peut faire, un réseau de neurones formel le peut aussi.".

Les pages suivantes comptent parmi les plus importantes de l'ouvrage (bien qu'elles ne soient pas de V Neumann!) avec une mise en lumière du caractère non algorytmique du fonctionnement cérébral. Toutefois, un point peut être discuté: l'auteur précise (p. 119) que "la densité des circuits électroniques est limitée par des contraintes thermiques et de fabrication de structures planes, alors que le cerveau enchévètre ses neurones dans l'espace". Ce n'est pas exact, les corps neuronaux de la structure cérébrale correspondant à la conscience, le cortex, ne se réarrangent pas dans l'espace mais bel et bien à la surface du cerveau. L'augmentation des capacités cérébrales est d'ailleurs lié à l'augmentation non du volume, mais de la surface corticale, aboutissant ainsi à un plissement de plus en plus marqué des hémisphères cérébraux au fur et à mesure que l'intelligence se développait dans le monde animal. L'épaisseur du cortex ne dépasse pas trois couches cellulaires, le plus souvent...

Par contre, comme le remarque Pignon, "
Pour atteindre la densité neuronale du cerveau, "il faudrait empiler dans un cube de 1 cm des centaines de processeurs ultraminces, qui travailleront un million de fois plus vite que les unités actives du cerveau.". On peut même se demander si ce n'est pas cette vitesse d'exécution qui pose problème, et si la conscience ne procède pas, au moins en partie, de la lenteur "relative" des procédés physico-chimiques à l'oeuvre dans les neurones.

-p. 121: "La comparaison des structures du cerveau et de la manière de traiter l'information qui y sont associé avec le calcul mécanique des ordinateurs conduit VN à considérer la logique comme un avatar culturel de l'évolution et à envisager une structure profonde du calcul, plus archaïque dans ses modalités, sans doute radicalement différente de celle que nous connaissons." Il s'agit là d'une idée intéressante, celle selon laquelle la logique serait contingente à l'évolution biologique. Si le "calcul" est ainsi inscrit, dès l'origine, dans le vivant, alors nous pouvons logiquement (c'est le cas de le dire) supposer que le développement de la logique se produit immanquablement au cours du processus de l'évolution biologique, donc qu'une évolution extraterrestre engendrerait très probablement des organismes nantis de logique. L'intelligence serait elle donc aussi répandue que la vie à travers la galaxie ?


Thom R - prédire n'est pas expliquer

Ce livre est une transcription des entretiens entre Emile Noel et R Thom,suivi d'un lexique présentant utilement les notions mentionnées par Thom, et réalisé par A Chenciner (ce lexique contient des schémas intéressant, mais de mauvaise qualité)

On est frappé, dans ce livre, par le ton de Thom et sa grande difficulté à penser la physique, et pour ainsi dire le réel. Ces rapports entre réalité(s) et mathématique constituent la substance de cet ouvrage intéressant, bien que les opinions de Thom puissent être discutées. Comme beaucoup de scientifiques, Thom dénie toute valeur aux sciences qui ne font pas partie de son champ de recherche. Il se montre obtus et étroit d'esprit. Ainsi, p. 81, ne craint il pas d'affirmer "De quel droit déclarez vous qu'un neurophysiologiste a un savoir plus pertinent que ma propre impression ? Je refuse cet argument". Il oublie ainsi qu'il ne s'agit pas de droit, mais de sciences et de faits démontrés expérimentalement. Mais l'expérience embarrasse beaucoup R. Thom, qui manifeste un grande incompréhension de la physique quantique, par exemple. Il ne craint pas de déclarer (p. 86) "La mécanique quantique est incontestablement le scandale intellectuel du siècle" car "la science a renonça à l'intelligibilité du monde", rien que ça! On pourrait au contraire arguer que la mécanique quantique nous permet d'accéder à l'intelligibilité d'un monde qui justement n'est pas régit par des lois correspondant aux impressions dictées par nos intuitions premières, par ces impressions dont justement R. Thom fait si grand cas! Il semble surtout, comme le laisse penser sa description de la p. 129 (il semble que les spécialistes se sont dits: nous avons une théorie qui fonctionne, n'allons pas au dela et ne cherchons pas à regarder ce qui est donné par le formalisme") que R Thom en soit resté à l'interprétation littérale de l'école de Copenhague, au début du siècle dernier, et ignore complètement les avancées majeures, tant théoriques qu'expérimentales, accomplies depuis (les travaux de Feynman, d'Aspect, par exemple...). En gros, R thom nous apprend que la mécanique quantique ne le convainc pas car elle ne cadre pas avec sa conception du monde... Entre la mécanique quantique et les conceptions de Thom, mon choix (et celui de la réalité!) est fait!.

Dès la p. 91, Il avoue d'ailleurs qu'il "croit que l'expérimentation par elle même ne peut guère conduire à des progrès", ce qui lui permet de souligner avec raison le manque de théorie globale de la biologie (alors même que la théorie de l'évolution constitue cette charpente idéalisée...). R Thom croit que la pensée prime toujours sur l'expérience, et que c'est l'introspection, l'état mental du chercheur qui est le chemin le plus sur vers la découverte...

P.93, se pose le problème de l'observation: comment reconnaître une chose sans en avoir au préalable un concept ?

P.96, R Thom rejoint les opinions de Gell Mann à propos de l'importance de la détection des régularités en physique.

P 100, se pose LA grande question: les "êtres" mathématiques préexistent ils à leur découverte ? C'est la cas pour Thom, qui se rallie en fait à l'idéalisme platonicien mâtiné d'Aristotélicisme: "Les idées mathématiques sont produites dans notre cerveau dans la mesure ou nous les pensons. Mais comme elles existent lorsque nous ne les pensons pas, alors elles existent quelque part, et pas seulement dans notre mémoire(...) elles existent ailleurs". Ces idées préexistent d'ailleurs à leur découverte, se réalisant dans tel ou tel cas selon le "matériau" cérébral disponible...
Thom ne considère donc pas les mathématiques comme une création humaine mais bel et bien comme une manifestation de la réalité perceptible par l'activité mathématique. Reste à définir le lieu d'existence de ces êtres mathématiques !

Dans les pages 102 et 103, nous retrouvons un R Thom complètement perdu au pays de la physique moderne: ni la physique quantique, ni la cosmologie ou la relativité ne trouvent grâce à ses yeux. Leur crime: ne pas correspondre à la réalité macroscopique usuelle, laquelle est seule garante delà vérité (en gros, R Thom croit le monde et ses lois taillé sur mesure pour la perception humaine... et reste échoué sur la physique de Newton comme R Crusoé sur son île...). R. Thom est embarrassé par la description physique du cerveau, dont il aurait bien ailé qu'il reste une boite noire inexploré: il dénie ainsi toute valeur aux travaux des neurophysiologistes car ces derniers sont "matérialistes"... (le fait que la pensée soit lié à la matière ne cadre pas, en effet, avec l'idéalisme mathématisant de Thom).

P. 106, relevons une perle se voulant philosophicarde, qui ne déparerait pas dans "le roland Barthes sans peine": "Le concept d'énergie, à bien des égards, me semble effectivement une sorte de conceptualisation d'une prégnance indifférenciée".


P 115, nous retrouvons l'intrépide Thom en train d'explorer le tube digestif, lequel sert d'illustration aux notions d'intérieur et d'extérieur... R Thom persiste à croire que le tube digestif est intérieur à l'organisme, alors qu'il n'est qu'une interface entre le milieu extérieur (qui traverse l'organisme) et le milieu intérieur. Par contre, le TD est à l'intérieur du corps visible, et c'est la distinction qui échappe à Thom, pour qui cependant l'approche holiste semble si importante...

Il arrive cependant que R Thom présente de brillantes analyses et des idées très intéressantes. Ainsi, déplorant la faiblesse théorique de la biologie (selon lui), il mentionne avec justesse que " il n'y a de science que dans la mesure où l'on plonge le réel dans un virtuel contrôlé".

Thom conclu son ouvrage par un préchi prêcha écolo du meilleur aloi, sur le thème d'une nécessaire "croissance zéro", et l'éloge des sociétés primitives "qui ne gâtaient pas leur environnement" etc... Il ne manque que J J Rousseau, on croirait lire ici le mensuel "l'écologiste". Quant à la "bonne" idée de "refroidir l'humanité", terme emprunté à Levi Strauss, son application pratique laisse augurer des pires totalitarismes...


On est frappé, au final, par l'archaïsme de certaines conceptions, comme celles de la forme prépondérante des réseaux neuronaux permettant l'incarnation des idées mathématiques provenant d'un ailleurs indéfini, et par l'entêtement à lutter contre l'expérience et contre toute construction mentale qui en viendrait à ne présenter l'apparence des choses que comme un avatar prove,ant de notre échelle de perception, que ce soit au niveau spatial ou temporel. Bien qu'on puisse tout à fait souscrire à l'idée selon laquelle une approche qualitative des phénomènes puisse avoir une valeur explicative supérieure à une approche purement analytique, les illustrations choisies par l'auteur semblent fort mal choisies, et une actualisation de ses connaissances dans les domaines qu'il flétrit injustement lui retirerait la plupart de ses arguments...
A lire cependant pour l'approche plus qu'originale de l'auteur, l'esprit ouvert et le sens critique aiguisé !



N. Witkowski - Une histoire sentimentale des sciences

Ce petit livre est un vrai bonheur : N Witkowski y raconte les aventures d'une trentaine de scientifiques, connus ou oubliés, célèbres ou, c'est plus courant, écrasés par le poids de leurs découvertes au point, dans les hagiographies scolaires (si il en reste, tant l'histoire des sciences est absente de l'enseignement). Défilent ici nombre de célébrités présentés sous leur tour le plus humain, faillible, avec leur découverte située dans le contexte et l'histoire des idées de l'époque.

L'histoire de Spallanzani, par exemple, éclaire d'un jour nouveau la défiance "actuelle" envers les sciences.

Ce livre est un remède salutaire à tous ceux qui jugent que la démarche scientifique est une attitude rigide et logique apte à être théorisée et enseignée. A ceux dont les conceptions "pédagogiques" vident les amphis, l'histoire (et même la petite histoire) apporte un cinglant démenti.

A lire de toute urgence !



B Greene - l'Univers élégant (la chasse aux infinis, je dirais plutôt)

Attention, là c'est un ouvrage d'importance visant à présenter l'état actuel de la physique des particules au travers de ses théories les plus complexes, à savoir les supercordes.

L'ouvrage lui même se compose de trois parties:
- une vulgarisation brillante des conceptions théoriques et des vérifications pratiques de la mécanique quantique et de la la relativité restreinte et générale

- une présentation de l'évolution des théories des supercordes, situées dans leur contexte historique et présentant correctement les énormes difficultés et les doutes liées à cette approche.

- un ensemble de notes visant à préciser quelques point, principalement à l'attention des lecteurs disposant déjà d'une formation scientifique et désireux d'aller plus loin "sous la surface des choses".
 Je ne résiste pas à citer, ainsi, la définition d'un "Calabi-Yau": "une vrai tranche tridimentionelle de l'hypersurface de degré 5 du 4 espace projectif complexe" (p 623). Voilà de quoi briller en société (ou, plus probablement, passer pour un...)

L'ouvrage est bien construit, bien écrit, et comporte de fréquents rappels bienvenus, car les livres de cette envergure sont rarement lus d'une traite!

Rapellons l'idée centrale des théories des supercordes: le zoo des particules élémentaires n'est qu'une apparence, les particules ne sont pas ponctuelles mais constituées de minuscules cordes vibrantes  dans des espaces multidimensionnels, dont chaque mode de vibration engendre une particule et ses propriétés (Pour une présentation imagée, la société NOVA, qui a produit le documentaire "l'univers élégant" permet d'en visionner l'intégralité sur son site)

Historiquement, tout à commencé en 1968, lorsque G Venazianno a découvert que la fonction gamma de Euler, découverte 200 ans plus tôt, décrivait parfaitement l'interaction forte. Par la Suite, L. Suskin mit en évidence que cette description impliquait que les particules en jeu n'étaient pas ponctuelles mais allongées, en forme de cordes vibrantes...

Gros avantage des cordes: leur extension spatiale, car comme le remarque Greene p. 253: "Si les constituants élémentaires de l'univers eux-même ne permettent pas de sonder les distances inférieures à la longueur de Planck, alors ni eux ni rien d'autre ne sera jamais affecté par les prétendues désastreuses ondulations quantiques qui règnent à cette échelle".  Les cordes limitent la "granularité" du monde, et évitent ainsi que ne surgissent les grandeurs infinies qui caractérisent les particules ponctuelles.

Cette idée que les dimensions physiques, matérielles, sont supérieures à 3 n'est pas nouvelle: elle a été avancée dès 1919 par Theodor Kaluza, mathématicien polonais en avance sur son temps... (p.298). Comme mentionné p. 314, Kaluza a remarqué qu'en introduisant une dimension spatiale supplémentaire, il parvenait à unifier la gravitation et l'électromagnétisme (ce qui me fait penser que l'on peut fort bien analyser l'électromagnétisme comme une dimension supplémentaire, et non une force). Malheureusement, les premières idées de Kaluza sur cette unification n'ont pas été confirmées par l'expérience. En fait, cela signifie seulement qu'envisager une seule dimension supplémentaire ne suffit pas ! (accessoirement, cela montre aussi qu'une belle idée, esthétique et unificatrice, n'est pas pour autant la vérité. Hors, une bonne partie de la théorie des corde procède d'une telle conception !).

Tout le chapitre sur ces dimensions cachées est excellent, et il ouvre bien des débats. Ainsi, (p.325), sont mises en évidence  9 dimensions enroulées microscopiques s'ajoutant au 3 spatiales que nous connaissons. Mais on pourrait fort bien imaginer une dimension spatiale supplémentaire, mais extrêmement grande...

Ces dimensions supplémentaires sont à la racine des supercordes: en effet (p.328): "la geometrie des dimensions supplémentaires détermine les attributs de la physique fondamentale, comme les masses ou les charges des particules que l'on observe dans les trois dimensions habituelles."

la p 584 nous offre un bon résumé de l'approche "cordiste" que je retravaille un peu ci dessous:

"Einstein a découvert que l'espace et le temps était inextricablement liés par le fait innatendu que le mouvement d'un objet dans l'espace influe sur son évolution dans le temps. La relativité générale montre que la forme particulière de la structure spatio-temporelle transmet la force gravitationnelle d'un point à un autre. Les fluctuations quantiques violentes du monde microscopique montraient qu'une théorie nouvelle était nécessaire, ce qui conduit à la théorie des cordes, qui impose que l'univers possède plus de dimensions que celles qui sont visibles. Certaines d'entre elles seraient entortillées dans des formes minuscules mais très compliquées, pouvant subir des transformations extraordinaires, où leurs structure est percée et déchirée puis se répare finalement d'elle-même."

Cordes et critiques

Greene ne cache pas dans on livre que les bases expérimentales de la théorie des supercordes sont quasiment inexistantes. Bien que Witten puisse dire que la gravitation découle des supercordes, force est de constater que la théorie de la gravitation a précédé celle des supercordes... Il fait là preuve d'un raisonnement circulaire.
Greene l'avoue sans faux semblants (p.335): "la TC est elle correcte ? Nous n'en savons rien."

Les critiques pleuvent sur cette théorie, surtout dans les années 80:
- S Glashow et P Ginsparg :"les théoriciens des supercordes poursuivent une harmonie interne ou élégance, unicité et esthétisme définissent la vérité... Coïncidences magiques, annulations miraculeuses et relations entre domaine sans rapport, et même inconnus, des mathématiques... Les mathématiques et l'esthétique supplantent elles et transcendent elles vraiment l'expérience ? ... cette théorie est soit parfaitement exacte, soit totalement fausse."

 Citons aussi R Feynman, pour qui il doit exister d'autres manières de se débarasser des infinies génants en physique...

Depuis cette époque, Greene remarque que les critiques sont moins nombreuses, et attribue cela à la fois à la plus grande modestie des théoriciens des SC et au manque de progrès des autres voies de la physique. On pourrait aussi rajouter que, depuis les années 80, de nombreux étudiants de physique "formatés" aux SC sont sortis des labos et ont commencé leur carrière tout pénétrés de l'esprit des théories cordistes...
Greene suit en fait l'avis de D Gross, pour qui c'est la façon de faire de la physique qui change, les théoriciens n'étant plus, comme par le passé, à la remorque des expérimentateurs, mais dans la situation bien plus inconfortable d'ouvrir seul les voie vers la vérité...

Toutefois, Greene le confesse facilement (p.441): "rien ne nous assure que l'Univers soit construit avec autant de rigueur"

Il est même des critiques plus actuelles:

- Duff  (Professeur de physique University of Michigan, Director of the Michigan Center for Theoretical Physics.)" is this just fancy mathematics or is it describing the real world ?" (est-ce seulement de jolies maths ou une description du monde réel ?"

- S. James Gates, Jr. (expert en particules supersymetriques, prof de physique dans les plus grandes universités US (MIT, caltech, Harvard...) "is it there in the laboratory ? Can you find its evidence ?"  (Ou peut on démontrer expérimentalement tout cela ? Peut on trouver des preuves ?)

-Joseph Lykken ( Fermi National Accelerator Laboratory (Fermilab), prof de physique à l'université de Chicago): How do you actually test string theory ? if you can't test it in the way that we test normal theories, it's not science, it's philosophy. (Pëut on tester les théorie des cordes ?  Si on ne peut le faire, comme pour toutes les autres théories, alors ce n'est pas de la science, mais de la philosophie."


p. 294, les propos de Witten, sur la surabondance de théories des supercordes (5): "si l'une des 5 théories décrit notre univers, qui donc habite les 4 autres ?" sont un prélude à la découverte que les 5  théorie peuvent constituer, en fait, 5 variantes d'une seule théorie des supercordes, la très hypothétique "M" théorie...

P484-485, on découvre que la théorie des supercordes devrait plutôt être appelée théorie des supermembranes, et on se demande même si ces objets ne se déploient pas dans d'autres dimensions (491): "la théorie des cordes contient en fair des membranes à 2 dimensions. Ne pourrait il pas y avoir des objets de plus haute dimension ? A l'heure actuelle, la réponse n'est pas totalement connue." Si ces objets se révélait avoir une extension supplémentaire, pourraient ils alors constituer les briques tridimentionelles de notre réalité sensible ? Existe t'il des "cases de Planck" indivisibles, pleines, construisant le monde comme l'enfant empilant des cubes construit son univers imaginaire ?

Contraction de l'espace
Un des apport théorique les plus intéressant des cordes est leur capacité à borner les dimensions et les phénomènes aux alentours de la longueur de Planck. Ainsi, même un effondrement gravitationnel en apparence infini n'est plus possible: une fois atteinte la longueur de Planck, la géométrie des cordes stoppe l'effondrement et le remplace par... une expansion !

Tout le chapitre intitulé "géométrie quantique" est à lire et à relire. P. 389, vous aurez l'impression de vous retrouver dans le premier opus du film "Men in Black". Toutefois, la pièce maîtresse est apportée p. 396, avec ce que j'ai appelé le rebond de Planck: toute contraction de matière se trouve stoppée à la longueur de Planck: "On évite ainsi le big crunch jusqu'à une extension nulle puisque le rayon de l'univers tel que le mesure les modes de corde legers, reste toujours supérieur à la longueur de Planck... ce rayon décroît jusqu'à la longueur de planck puis commence aussitôt à ré augmenter: l'effondrement devient un rebond ". Appliquons le même raisonnement à l'effondrement d'un trou noir...

les trou noirs, justement possèdent comme uniques caractéristique masse, rotation et éventuellement une charge. autrement dit, les trous noirs se caractérisent comme de grosses particules élémentaires.. (498). Toutefois, l'étude des "effondrements" de l'espace, c'est à dire des fameuses dimensions cachées, aboutit à des résultats surprenants (505): lorsqu'une sphère tridimentionelle s'effondre, la structure dimensionnelle peut se déchirer puis se réparer en ré ouvrant la sphère (redonnant une expansion) mais ici alors que nous avions n dimensions en effondrement, nous n'en avons plus que (n-1) en expansion ! Ces transitions topologique de l'espace (dites conifold) montrent qu'un effondrement gravitationnel peut engendrer une modification de la topologie des dimensions enroulées des cordes évitant l'apparition de quantité infinies. Il existe même d'autres effets encore plus innatendus (513): "une fois que la sphère s'est trouvé réduite en un point, le trou noir se retrouve dénué de masse - bien que cela semble loufoque et mystérieux.".

A ce propos, P 522, Greene présente et utilise les travaux de Hawking sur ke rayonnement des trous noirs et leur évaporation. Toutefois, ces travaux sont basés sur lee particules virtuelles surgissant de la mousse quantique.... Mais celle ci existe t'elle dans la théorie des cordes ?

Entropie d'un trou noir et supercordes
Comme Bekenstein le supposait et Hawking l'a vérifié, les trous noir possèdent une entropie, qui peut être identifiée à l'aire de leur horizon. Cette entropie est colossale, mais que représente t'elle? Une réponse est apportée par la théorie des cordes, mais elle considère des trous noir très particuliers dits extrémals.
Toutefois ils ont réussit à montrer ici l'identité entre l'entropie mesurable par le rayonnement du trou noir, et l'entropie calculable à partir des SC.

Que devient l'information tombant dans un trou noir ? Est elle irrémédiablement perdue, accroissant ainsi l'indétermination globale de l'univers d'une quantité supplémentaire à celle génère par le principe d'incertitude ? Ou bien peut elle resurgir du néant lorsque le trou noir s'évapore, son horizon diminuant ? Personne ne sait, pour le moment, ce qu'il en est (Hawking et Thorne militent en faveur de la perte, Preskill, utilisant les SC, pense que le restitution est possible...).
Ce n'est pas là un mince problème, car comme le déclare Hawking (532):" La plupart des physiciens veulent croire que l'information n'est pas perdue (...) on doit accepter l'éventualité que l'espace temps se noue lui même et que l'information se perde dans ses replis. La question de savoir si oui ou non il y  perte d'information est l'une des principales question de la physique théorique."

Et si les trous noirs étaient liés au problème de la flèche du temps, cette perte d'info la définissant? Et si ils étaient des convertisseur d'espace en temps ?

Une autre de mes réflexions s'est trouvée confortée à la p. 573, où Greene nous apprend que Lee Smolin  a proposé que chaque trou noir constitue "la semence d'un univers nouveau" (j'avais eu la même idée, confusément). Ces univers "deumereuraient à jamais cachés par l'horizon du trou noir". L'avancée principale de Smolin tient à ce qu'il devient alors possible d'invoquer un mécanisme de sélection naturelle pour aboutir à des univers dont les paramètres sont optimaux pour la formation de trous noirs, ce qui permet d'esquiver les redoutables (pour qui ? Greene semble en faire grand cas, mais ce sont souvent des tautologies) pièges des principes anthropiques...)

La formulation des supercordes conduit à l'existence d'une symétrie spatiale par rapport à la longueur de Planck: tout événement au delà de cette longueur peut être relié à un événement identique en deçà de cette longueur, les deux étant indiscernables...

Cette symétrie se manisfeste au niveau du big bang: en remontant le temps (p.555) "la température atteint un maximum (à la longueur de planck) puis commence à décroître.".


Recherche de confirmations:
Si les supercordes sont super, justement, c'est qu'elles prédisent l'existence, pour toute particule, d'un partenaire plus lourd, dit supersymétrique. Si l'un de ces partenaire venait à être détecté, la réalité des cordes s'en trouverait renforcée.

Il faut toutefois attendre la page 559 pour découvrir ce que je considère comme le meilleur argument en faveur des SC: ces dernières expliquent de façon extrêmement convainquante la phase inflationnaire du big bang: "plus (les 3 grandes dimensions spatiales) elles se dilatent, plus il est improbable que d'autres cordes les entourent, puisqu'il faut d'autant plus d'énergie à la corde pour envelopper une dimension plus grande. Ainsi, l'expansion se nourrit d'elle même, de moins en moins contrainte à mesure que les dimensions grandissent.".

On doit aussi remarquer que les SC fournissent des explications convainquantes pour origine de la gravité (si le graviton existe!), le pourquoi des 3 familles de particules et l'origine de la masse...



La lecture de l'ouvrage de Greene permet de poser de fascinantes questions :

Il pourrait exister des particules à charge électrique fractionnaire (autre que les quarks 1/3 et 2/3), leur détection confirmerait les théories SC.

P. 374, l'enroulement des cordes autour des dimensions microscopiques refermées sur elles mêmes me fait me demander si l'omniprésence de pi dans la physique n'est pas le signe de l'existence de dimensions cachées "sphériques"...

p 594, la geométrisation de la théorie quantique apparaît comme une voie où "espace, temps et propriétés quantiques seront réunis et inséparables". Pythagore aurait il eu raison ? Tout serait nombre, ou plus exactement tout serait forme.

p. 588 se pose la question de voir "la théorie créer sa propre scène spatio-temporelle à partie d'une configuration dénuée de temps et d'espace". Ainsi, se pourrait il qu'en fin de compte, temps et espace ne soient que le résultat, ou même directement, d'un calcul? Nous pourrions établir ici un parallèle avec l'approche défendue par S Wolfram...

p 599, une grande question: existe t'il une limite à l'explication scientifique du monde ? "Peut être nous faut il accepter, après avoir atteint le niveau de compréhension le plus fondamental que la science puisse offrir, que certains aspect de l'univers restent tout de même inexpliqués". En fait, cette interrogation est causée par l'examen des conditions initiales de l'univers lui même: comment ont elles été déterminées ? N'habitons nous qu'un seul univers parmi tous les possibles, ou le seul ou la conscience ait pu prendre son envol ?

Là, Greene en profite pour placer la notion de "choix divin", ou utilise, de temps à autre, le terme de "création" pour l'univers. Je crois qu'il ne faut voir là que l'héritage de sa culture Nord américaine, imprégnée de références religieuses, plus qu'un dessein volontaire ou un point de vue théologique ou prosélyte.

En résumé, un ouvrage éclairant, qui mérite d'être lu entièrement, puis approfondi chapitre par chapitre, et dont les références, si on voulait les examiner de façon sérieuse, suffiraient à occuper une vie.
C'est aussi un merveilleux roman décrivant la quête de la connaissance entamée, voici des siécles, par les premiers scientifiques et qui, ici, amène aux interrogations les plus hautes et aux découvertes les plus stupéfiantes sur cet étrange univers que nous avons fait notre...