Les voies de la fusion

Septembre 2005


“Pour que la technologie connaisse le succès, la réalité doit avoir la préséance sur les relations publiques, car on ne peut pas duper la Nature." R Feynman

La récente attribution d’ITER à la France est l’occasion de faire le point sur l’état actuel de la fusion nucléaire. Ce domaine est fréquemment parasité par de nombreuses polémiques et il convient de préciser nombre d’éléments rationnels qui, entre les communiqués triomphateurs de politiciens ignares et la panique de ceux qui voient derrière le moindre isotope l’ombre d’Hiroshima, contribueront je l’espère à éclaircir les lanternes et à dépassionner le sujet.

Un principe simple
La réalisation de la fusion est simple à comprendre: deux noyaux atomiques suffisamment rapprochés se “collent” pour n’en former qu’un seul, dont la masse est inférieure à la somme des masses des deux constituants. La masse manquante est en fait émise sous forme d’énergie selon la célébrissime équation E=MC2.
Si l’on veut écrire un bilan simplifié de la réaction de fusion, on obtiendra:
noyau A + noyau B ----> noyau C + neutrons
Et l’énergie ? Elle est “emportée” par la vitesse communiquée aux neutrons et au noyau formé.
La fusion n’est pas une idée neuve. Dès 1929, Atkinson et Houtermans l’invoquent pour expliquer l’origine de l’énergie des étoiles, mystérieuse jusqu’alors. Dès cette époque, Le célèbre G. Gamow pense que cette réaction pourrait servir à fabriquer de l’énergie sur Terre. En 1934 la fusion du deutérium est obtenue en laboratoire par Rutherford, Harteck et Oliphant. Le premier programme de fusion contrôlée et lancée dans la foulée aux USA en 1939 au Langley mémorial aeronautical laboratory puis rapidement abandonné. C’est d’Argentine, en 1951, que provient l’annonce (fausse...) de l’obtention d’une fusion expérimentale, ce qui relance le programme américain sous l’impulsion de l’astrophysicien L. Spitzer (dont le nom vient d’être donné à un télescope spatial infrarouge). Les militaires ont obtenu, de façon “explosive” la fusion le premier novembre 1952, en rasant l’atoll d’Eniwetok avec “Mike”, la bombe H mise au point par l’équipe de Teller et Ulam. De l’autre côté du rideau de fer, c’est le nom moins célèbre A. Sakharov, ainsi que I. Tamm, qui mettent au point la fusion “explosive” . Dans les deux cas, il s’agit de la fusion la plus facile à obtenir et la plus énergétique, celle du deutérium (de l’hydrogène dont le noyau, un proton solitaire, est “alourdit” par un neutron) et du tritium (de l’hydrogène “superlourd” avec 2 neutrons”) obtenu par bombardement d’une cible de lithium par des neutrons rapides issus d’une bombe à fission (nous reviendrons sur ce procédé, car il est à la base de l’alimentation d’un réacteur à fusion contrôlée).

Des obstacles majeurs
La réalisation de la fusion contrôlée se heurte toutefois à un “léger” problème: elle met en jeu une force, l’interaction forte, qui ne s’exerce qu’à très courte distance (de l’ordre de 10-15 m) entre les noyaux atomiques. Le problème est que les noyaux portent une charge électrique positive, et ont donc tendance à se repousser fortement bien avant d’être assez proches pour fusionner (heureusement pour nous!). Dès lors, pour forcer les noyaux à se rapprocher malgré leur aversion électromagnétique mutuelle, il est nécessaire de les faire s’agiter en tout sens, de les accélérer à un point tel que leur vitesse leur permette de se rapprocher malgré leurs charges identiques. Accélérer un noyau revient à augmenter son énergie cinétique, c’est à dire, in fine, la température du milieu: le calcul brut nous donne une énergie de l’ordre de 300 keV pour rapprocher deux noyaux “légers”, soit une température de l’ordre de... 3 milliards de degrés (en théorie)...
On conçoit aisément que plus on entassera des noyaux et plus leur probabilité de rencontre, si leur vitesse est suffisante, sera importante: un milieu (très) dense et (très) chaud devrait donc être l’endroit rêvé pour réaliser la fusion nucléaire.

Chaud, mais pas trop.
Les lecteurs familiers de l’astrophysique doivent déjà avoir remarqué que 3 milliards de degrés pour obtenir la fusion, c’est bien davantage que les 15 millions présents au cœur du soleil, qui pourtant fusionne l’hydrogène en Hélium... En effet, à une température donnée, les noyaux ne vont pas être tous à la même vitesse, mais celle-ci se répartit autour d’une valeur moyenne: il y a quelques noyaux très rapides, d’autres très lents, et une majorité à une vitesse correspondant à la température. Parmi ces noyaux rapides, certains sont susceptibles, du fait de leur structure ondulatoire, de franchir la “barrière” de potentiel représentée par la répulsion électrostatique et de percuter les autres noyaux. Ce phénomène permet d’obtenir une fusion à des températures très inférieures au milliard de degrés, mais cependant très élevées pour notre expérience sensible.
Le tableau suivant donne les températures nécessaires pour obtenir la fusion de quelques atomes légers (pour les + lourds, l’énergie et la densité nécessaires ne sont atteintes que dans certaines étoiles). Il permet de comprendre pourquoi c’est la réaction de fusion Deutérium/tritium (D/T) qui a été choisie pour la fusion contrôlée: elle produit des neutrons de forte énergie, des noyaux rapides et se produit à la température minimale...

Dense, mais pas trop
Un milieu composé de noyaux véloces est fondamentalement instable: les noyaux tendent à s’éloigner, à s’enfuir et diffusent rapidement (les ions sont animés de vitesses de l’ordre de 1000 km/s) si loin les uns des autres qu’ils ne peuvent plus se percuter de façon efficace et que les réactions de fusion s’interrompent. Pour éviter cette fuite des noyaux, il est nécessaire de maintenir ensemble fermement, de rassembler, de confiner les noyaux.
C’est là que gît le problème nº 1 de la fusion contrôlée: comme il n’existe aucun corps matériel susceptible de résister à une fusion se produisant continûment en milieu dense (c’est ce que l’on appelle le régime “thermonucléaire”) il est nécessaire d’utiliser soit des milieux très peu denses (qu’il faut chauffer intensément dans un grand volume) soit des “mini” fusions se produisant dans un temps extrêmement bref afin de ne pas détruire les installations...

Nous avons jusqu’ici parlé de noyaux, pas d’atomes... En chauffant la matière, noyaux et surtout électrons s’agitent puis finissent pas se séparer. On obtient un plasma (l’état de la matière le plus répandu dans l’univers), où les électrons vagabondent de noyaux en noyau dans le milieu, l’ensemble restant électriquement neutre. Une flamme est un plasma.
Une fois le plasma obtenu, on le réchauffe encore jusqu’à ce que les noyaux acquièrent l’énergie nécessaire aux réactions de fusion. Mais qu'est-ce qui va bien pouvoir maintenir “au chaud” un plasma suffisamment longtemps pour que des réactions de fusion s’y déclenchent, et qu'est-ce qui va permettre de les maintenir ?
Nous verrons que ce problème du confinement et du maintien de la fusion est au centre des difficultés rencontrées dans les machines de la famille d’ITER, et que ce dernier ne servira, contrairement aux annonces triomphalistes des politiciens, qu’a étudier ce problème dans l’optique d’une future production d’énergie.
En fait, toute la problématique de la fusion nucléaire revient à pouvoir concentrer une quantité d’énergie relativement faible, mais sur des volumes minuscules. Si l’on augmente les volumes concernés, comme dans les machines que nous allons examiner, alors l’énergie qu’il faut fournir devient énorme.
Nous verrons également qu’il existe d’autres façons, moins coûteuses, d’obtenir des réactions de fusion, permettant par exemple la réalisation de sources de neutrons de grande énergie,


Première voie: un grand volume de plasma confiné par des champs magnétiques

Où l’on parle russe.
En pleine guerre froide, des scientifiques soviétiques, dont en premier lieu le très influent Kourtchakov, présentèrent à la conférence de 1958 “atomes pour la paix”, à Genève, des résultats probants, communiqués 2 ans avant en Angleterre, obtenus par confinement d’un plasma chaud au moyen de champs magnétiques. Bien qu’en occident de telle recherches, alors classifiées, ait été poursuivies (en particulier à Harwell, où fonctionnait le dispositif d’étude ZETA), cette nouvelle est accueillie avec suspicion: on soupçonne le gouvernement soviétique de chercher à aiguiller la recherche vers une voie sans issue, et les résultats de Kourtchakov ne seront acceptés qu’une fois reproduits dans le installations anglaises.
En fait, le dispositif soviétique à été pensé par deux chercheurs que nous avons déjà rencontrés, Andrei Sakharov et Igor Tamm. Ils conçurent un dispositif nommé Tokamak (toroidalnya kamera ee magnetnaya katushka, que l’on peut traduire par Tore à compression magnétique). À partir de 1968, l’efficacité des différents tokamaks construits de par le monde crut continûment et a été multipliée depuis par un facteur 1000, mais il manque toujours un ordre de grandeur pour obtenir dans ces machines une fusion véritable. Leur coût est tel qu’il a été nécessaire de mettre au point une collaboration européenne dès 1978, puis internationale. Ajoutons que les USA (à Princeton) ainsi que le Japon construisirent aussi leurs installations d’étude afin d’explorer cette voie.

Comment ça marche(ra) ?
Le principe est simple à comprendre: un tokamak n’est pas autre chose qu’une espèce de “tube au néon” circulaire comme en utilisent les horlogers ou les bijoutiers. La différence vient de ce qui est contenu dans le tube...
Un tokamak est un tore enserré dans des bobines qui vont créer un champ magnétique intense susceptible d’écraser, de comprimer le plasma que l’on va créer et chauffer à l’intérieur.
Dans le tore, il n’y a presque... rien! Les champs magnétiques créés ne pouvant comprimer que peu de matière, la quantité de deutérium confinée dans un tore de plusieurs m3 n’est que de quelques g! La pression dans le tore n’est qu’un millionième de bar (un bon vide!). La gageure technologique va être non pas de protéger l’enceinte du plasma (qui, même à 100 millions de degrés, de demande qu’à se refroidir) mais bel et bien de protéger le plasma de l’enceinte (contrairement à ce que l’on peut lire sur certains sites catastrophistes, un contact éventuel plasma-enceinte n’aboutit pas à la fonte de l’enceinte, car elle est comparable à ce qui se produit lorsque vous jetez une goutte d’eau bouillante dans une piscine de glaçons). Le plasma est si instable que s’il est “contaminé” par des atomes arrachés à la paroi il perd de l’énergie par rayonnement, et se refroidit inexorablement, rendant la fusion impossible.
Pour obtenir du plasma, il faut chauffer. Pour cela, on utilise plusieurs dispositifs, dont les principes sont présents dans toute bonne cuisine moderne:
- le chauffage ohmique (même principe que les résistances d’un four) utilise un champ électrique (induit), d’une tension modeste (ordre du V) mais il est limité, car le plasma chaud devient un excellent conducteur, donc chauffe de moins en moins...
- des canon à ions (1 Mev), de principe similaire aux canons à électrons des tubes cathodiques, injectent des atomes rapides dans le plasma, ce qui le chauffe (et assure aussi l’alimentation du plasma en combustible)
- enfin, des ondes HF (autour de 100 MHz) chauffent les ions. Le principe est similaire à celui d’un four micro-onde, mais on utilise ici des émetteurs dérivés des techniques radio (chauffage cyclotronique). Il serait très intéressant de pouvoir également chauffer les électrons du plasma par le même moyen, mais il faudrait pour cela des ondes à 100 gHz qui ne peuvent être produites, actuellement, par des émetteurs de taille industrielle.
Ce chauffage est bien gentil, mais comme les noyaux s’agitent en tout sens, le plasma ne demande qu’à se disperser et à se refroidir au contact de l’enceinte. Pendant tout ce temps, il est nécessaire de le concentrer. C’est le rôle ô combien difficile du dispositif de confinement.

Une prison magnétique.
Pour éviter que le plasma ne diffuse, des bobines entourant le tore créent un champ magnétique qui le comprime au centre du tore. Le plasma forme alors un cordon éloigné des parois supérieures et inférieures (il est si peu massif que la gravité est contrebalancée largement par les forces magnétiques) mais, facétieux, il a tendance à fuir “par les côtés”. Il est alors indispensable de le “serrer” au moyen d’un deuxième champ magnétique. Mais problème, le tore est déjà entouré de bobines créant le premier champ, impossible alors de rajouter d’autres bobines. Le génial Sakharov proposa alors de créer ce champ dans le plasma lui même (qui, souvenons-nous, est un excellent conducteur) au moyen d’un courant électrique induit. Ce champ, dit “poloïdal” se combine avec celui des bobines, dit “toroïdal” pour forcer les éléments du plasma à tournicoter dans le tore en serpentant autour du centre de la cavité.
À l’origine, Sakharov avait envisagé d’induire le courant générateur du champ poloïdal dans un anneau métallique en lévitation dans le tore. Les techniques d’alors ne permettaient pas cela, mais actuellement cette configuration a été réalisée dans le LDX (Levitated dipole eXperiment) dont le développement est du à l’observation des magnétosphères planétaires par Akira Hasegawa (1) et son équipe. Nous reviendrons sur cette réalisation particulièrement intéressante.
Maintenant que notre plasma est bien chaud et maintenu dans les barreaux magnétiques de sa prison, voyons ce que produit le chauffage: les noyaux s’agitent, puis quelques-uns fusionnent en libérant des neutrons (qui fuient vers l’enceinte en emportant la majorité de l’énergie produite) et de l’He qui, lui, très rapide, va chauffer encore plus le plasma, facilitant ainsi d’autres réactions de fusion (à condition que le combustible soit présent). Nous voyons ici une des différences principales entre fission et fusion: il n’y a pas ici de réaction en chaîne. Alors qu’il est continuellement nécessaire de freiner une réaction de fission, il est au contraire continuellement nécessaire d’alimenter une réaction de fusion.
Lorsque l’énergie libérée par la fusion dépasse celle (importante!) qui a été dépensée pour chauffer le plasma, on est alors en condition dite “breakeven” atteinte pour la première fois en 1998 dans l’installation japonaise JT60U. Toutefois, il faut bien être conscient qu’il s’agit ici de constructions expérimentales dans lesquelles le plasma n’a pu être maintenu en fusion que pendant quelques secondes! On est donc loin d’un régime permanent.
Pour l’obtenir, il faudrait que l’He produit assure à lui seul l’entretien du plasma, c’est à dire son chauffage et compensent les pertes. Cette condition, dite “ignition” où le réacteur ne demanderait plus d’énergie pour fonctionner, n’a jamais été atteinte, mais reste théoriquement et technologiquement possible. Atteindre à tout prix (c’est le cas de la dire) l’ignition est le but d’ITER. Il n’est cependant même pas nécessaire d’obtenir cet “auto-allumage” pour avoir une installation capable de produire de l’électricité.
La “rentabilité “ de la fusion est définie par un nombre Q. Au breakeven correspond Q > 1, à l’ignition Q = ∞. Une réaction économiquement exploitable commence vers Q=20 (conversion thermique/électrique de 40% et 10 à 15% de l’énergie produite consommée par le réacteur lui-même). Les meilleurs résultats actuels ont atteint Q=1,25 pendant quelques secondes.

Où les tores deviennent sphériques.
Les coûts de construction des tokamaks sont très élevés. Leur forme de pneu implique la construction de gigantesques électro-aimants ovoïdes et d’enceintes de forme complexe et de grande surface, consommant une grande quantité de matériaux onéreux. Des recherches ont été effectuées pour concevoir des “bouteilles à plasma” à la fois plus simples à construire et plus efficaces dans leur action de confinement. L’enceinte, au lieu d’être torique, est alors sphéroïdale. Ainsi, les tores sphériques (une appellation à faire bondir un mathématicien) permettent de générer des champs magnétiques plus intenses, mais surtout d’une meilleure géométrie, assurant un meilleur confinement. Le courant à induire dans le plasma,par exemple, est 10 fois inférieur à celui d’une configuration tokamak conventionnelle. Des installations sont en activité à Cullham, en Angleterre (Mega Ampere Spherical Tokamak) et à Princeton (National Spherical Torus Experiment).
D’une géométrie encore plus radicale, les “sphéromak”, moins coûteux car comprenant moins d’aimants, sont principalement étudiés aux USA (le petit Swarthmore Spheromak Experiment en Pennsylvanie est destiné à des études de physique fondamentale des plasmas alors que le Sustained Spheromak Physics Experiment en Californie est lui développé dans le but d’étudier une fusion possible à faible coût). Toutefois, un bon confinement est plus difficile à obtenir avec un spheromak qu’avec un tokamak classique.

Une voie délaissée; les stellarators
Une autre prison magnétique peut être envisagée pour nos plasmas volages: au lieu de générer un double champ magnétique (poloïdal + toroïdal) par un couple aimants/courant induit, on se contente de concevoir des bobines (aimants) hélicoïdales dont la forme est calculée pour générer un champ complexe (ses lignes forment des torsades) capable de confiner efficacement un plasma sans qu’il soit nécessaire d’y induire un courant. Dans cette configuration, les plasmas peuvent être à la fois plus dense et se retrouver en régime stationnaire, ce qui favorise la fusion. Malheureusement, la réalisation des bobines hélicoïdales est d’une telle complexité et pose tant de problèmes techniques qu’il n’est pas possible de construire de grand stellarators. De petites installations sont cependant étudiées aux USA (Helically Symmetric Experiment) et au Japon (Large Helical Device), et projetées dans plusieurs pays d’Europe et en Australie. Elles servent à la fois à l’étude de la fusion et à celle, plus fondamentale, de la physique des plasmas. C’est également le cas de “confineurs” comme le MST (Madison symmetric Torus) qui avec un seul aimant de faible puissance et avec des champs magnétiques induits dans et par le plasma, obtient un bon confinement et permet l’étude des instabilités de ce milieu.

Problème du confinement magnétique: big is beautiful
Le problème principal rencontré pour amener un plasma de deutérium confiné magnétiquement à une température telle que le fusion s’y produise consiste à maintenir ce dernier dans sa prison. Dès les premiers tokamaks, il est apparu que plus on éloignait la paroi du plasma et plus les phénomènes de diffusion était réduits (ce qui semble logique!) et donc que de meilleurs confinements ne pourraient être obtenus que dans des installations plus grandes (avec des bobines plus grandes, des champs plus intenses, etc...). Des relations d’échelle, semi-empiriques (donc, en fait, mal comprises) montrent que les temps de confinement sont d’autant plus longs que le tore est plus grand. C’est cette course au gigantisme, réclamant des crédits importants, qui motiva la construction du JET et qui motive aujourd’hui la construction d’ITER.

Certains lecteurs doivent s’impatienter: je n’ai pas encore parlé de production d’électricité par la fusion. Ceci s’explique: contrairement aux déclarations triomphalistes de nombre d’élus locaux obnubilés par la manne financière iterienne, il ne s’agit pas ici de produire le moindre KW (au contraire, il faudra en consommer beaucoup) mais de valider la possibilité de construire in fine des réacteurs (le fait de savoir s’ils seront rentables étant délégué à une installation suivante, repoussée aux calendes grecques, nommée DEMO).

Souvenons-nous de ce qui se passe dans le plasma où se produit la fusion deutérium/tritium: schématiquement, les neutrons fuient, l’He chauffe le plasma. Les neutrons emportent la majorité de l’énergie produite. Pour capter cette énergie, il faut intercepter les neutrons dans une enceinte qui va, ainsi, chauffer. Ce “chauffage neutronique” permettra de faire... bouillir de l’eau (vapeur à 500 °C sous pression, ou un autre fluide caloriporteur) et de produire du courant grâce à des alternateurs utilisant, comme toujours, les bons vieux principes de la machine à vapeur....
Reste à se procurer le combustible. Pour le deutérium, pas de problème, il est facilement extractible de l’eau de mer (10 g dans 500 Kg d’eau). Le tritium serait plus difficile à obtenir, et surtout à conserver (sa demi-vie est très courte et cet isotope de l’hydrogène, de petite taille, a tendance à s’échapper de ses conteneurs) aussi sera t’il, élégamment, généré in situ: les neutrons, en bombardant une couche interne de lithium (ce même élément qui se trouve en quantité dans les batteries d’ordinateur ou de téléphone mobile) provoquera la transmutation (hé oui) du lithium en tritium selon les réactions:
7Li + n °˜ 4He + T + n – 2.47 MeV
6Li + n °˜ 4He (2.05 MeV) + T(2.73 MeV)
Ainsi, 50% de la masse de lithium est convertie en tritium collecté et injecté dans le plasma pour participer aux réactions de fusion. L’He produit pourra lui aussi être collecté, ce qui permettrait d’obtenir une voie d’obtention de ce produit actuellement extrait du gaz naturel.
Ce procédé de conversion lithium/tritium a été validé par les militaires dans les explosions de bombes H (c’est le lithium qui donne la couleur rouge carmin au début de l’explosion), mais ITER doit en particulier vérifier qu’il est réalisable dans le tore. En effet, bien que la fusion D/T ait été obtenue dès 1991 dans le tokamak JET, le tritium y avait été injecté de l’extérieur et non pas généré par bombardement de neutrons.
ITER est en fait un énorme instrument d’étude des plasmas et des matériaux. Voici ses véritables buts:
- Maîtriser les techniques de construction de grands aimants supraconducteurs constitués de bobines de Nb3Sn ou NbTi, alliages fragiles (qui devront donc être maintenus à une température de -268°C par circulation d’He liquide supercritique) parcourus de courants de 45 000 à 68 000 Ampères, et celle de leur refroidissement. A elles seules, ces bobines de plusieurs centaines de t représentent plus du tiers du coût total du système (les supraconducteurs “nus” coûtent à eux seuls 10 % du projet). Ce sont des aimants similaires (mais plus petits!) parcourus sans résistance par un courant intense qui ont permis au tokamak Tore Supra, à Cadarache de stabiliser un plasma pendant 6 min, générant ainsi plus de 1000 Mjoules d’énergie thermique en décembre 2003.
On peut toutefois se demander s’il n’aurait pas été plus sage d’attendre la mise au point de bobines supraconductrices à “haute température”, les matériaux étant déjà disponibles, ne nécessitant qu’un refroidissement à l’azote liquide (-180 °C) pour un coût très inférieur à celui des bobines à He d’ITER...

- Étudier la tenue des matériaux (aciers spéciaux ou céramiques) constituant le tore sous l’influence des neutrons de très haute énergie produits lors de la fusion. Comme l’a fait justement remarquer le physicien M Koshiba, prix Nobel de Physique, les effets de neutrons de 14 MeV n’ont jamais été étudiés et leur influence sur “l’activation” (le fait de rendre l’absorbeur de neutrons radio-actif) n’a pas encore été quantifiée. Dans ce but, une installation supplémentaire, l’IFMIF, sera construire au japon dans le but d’étudier les interactions neutrons/matériaux.
- mettre au point et valider la technique de fabrication et d’alimentation du plasma en tritium
- améliorer les techniques de chauffage du plasma
- mettre au point les machines et les robots susceptibles d’intervenir à l’intérieur du tore afin d’en assurer l’entretien et, éventuellement, le dépannage.
Nous sommes donc très loin d’une production de courant, envisagée seulement sur le papier pour le projet DEMO planifié, si tout va bien, pour 2040, dernier essai avant la mise au point d’une première génération de centrales à fusion pour 2060...

Une étoile ? Non.
Contrairement aux descriptions poétiques (et à la page d’accueil du site officiel d’ITER - 2) visant à décrire un éventuel réacteur à fusion comme “une étoile sur la Terre”, le mode de fonctionnement des réacteurs envisageable n’a rien, sauf son principe, de commun avec les étoiles.
En effet, à l’intérieur de celle-ci, les conditions de fusion sont obtenues grâce au confinement gravitationnel qui assure à la fois une forte T et une forte densité. Les réactions varient selon les étoiles, mais la fusion DT ne s’y produit jamais.
De plus, toutes les étoiles de fonctionnent pas de la même façon: au fur et à mesure de leur histoire, leur évolution les conduit à réaliser des fusions diverses, culminant, pour les plus massives, par une brève formation de fer par fusion du silicium à la température infernale de 4 milliards de degrés (3).
Notre soleil fonctionne selon un mode de fusion dit “proton-proton” réalisant successivement la fusion de 2 protons (noyaux d’hydrogène) pour obtenir du deutérium (la probabilité de cette fusion est si faible qu’elle réclame 1 milliard d’années pour se produire, chiffre heureusement compensé par la grande quantité de protons au centre du soleil) qui fusionne à son tour avec un autre proton pour donner du 3He, lequel conduit à la formation de 4He et de 2 protons très énergétiques (ils emportent 50 % de l’énergie produite). On chercherait en vain à obtenir une telle suite de réaction sur Terre, ne serait-ce que parce qu’elles nécessitent une densité très importante pour se produire avec efficacité.
Au-delà de 15 millions de degrés, la fusion va emprunter dans les cœurs stellaires la voie du cycle du carbone (où cycle CNO) que l’on peut résumer ainsi:
- un proton fusionne avec un noyau de C pour former un noyau d'azote 13 (13N)
- le 13N, instable, se désintègre en quelques min en 13C
- un proton fusionne avec 13C pour donner un noyau de 14N, qui lui-même devient de l’18O par fusion avec un autre proton
- 18O se désintègre en 15N qui par fusion avec un autre proton nous redonne du carbone (qui est donc régénéré, c’est un catalyseur) et, enfin, un noyau d’He...

On chercherait en vain à recréer sur Terre ce genre de réactions de fusion. Seul leur principe de fonctionnement apparente donc les dispositifs à fusion aux étoiles dont ils se différencient à la fois par les densités de matière mises en jeu et par le déroulement des réactions de fusion envisagées.

La fusion, tout de suite
Tout comme il n’est pas nécessaire d’espérer pour entreprendre, certains chercheurs proposent de construire dès maintenant une centrale à fusion sans avoir obtenu l’ignition. En effet, nous avons vu que la rentabilité était envisageable avec un paramètre Q de 20 (le plasma fournit 20 fois plus d’énergie qu’il n’en absorbe, même s’il faut toujours le chauffer). L’équipe de Culham, en Angleterre, propose de construire un sphéromak (coûts plus faibles) susceptible d’atteindre une valeur Q=40 (4) capable de produire 1200 MW. Ils estiment le coût de la construction à 18 milliards d’€ (soit moins que la somme ITER + DEMO) et envisagent un prix du KWh produit de 0,9 à 0,45 €.
Il ne s’agit ni plus ni moins que de “shunter” les étapes ITER et DEMO avec un objectif scientifiquement moins ambitieux, mais, sans doute, technologiquement plus rentable: une “fusion sans ignition”.
D’autres éléments sont aussi à considérer: Le discret LTX du MIT, avec son anneau supraconducteur conduisant 3200 A générant un champ magnétique poloïdal dipolaire, par exemple. Cette configuration présente le grand avantage de permettre l’obtention d’un plasma bien plus stable (le champ utilisé permet, grossièrement, d’utiliser l’énergie des instabilités périphériques du plasma pour renforcer sa stabilité “centrale”) que les tokamaks classiques. Cela permettrait d’envisager de réaliser la fusion du deutérium (5) au lieu de celle du D/T.

ITER or not ITER ?
Si la voie des bouteilles magnétiques semble prometteuse, n’oublions pas que rien ne garantit que la fabrication et le fonctionnement d’une centrale à fusion puissent être économiquement rentables dans un avenir proche. En effet, il y a d’autre façon d’obtenir la fusion: au lieu de chauffer fortement quelque g de mélange deutérium-tritium, pourquoi ne pas utiliser le bon vieux principe qui fait chauffer une pompe à vélo qui comprime de l’air, en provoquant la compression d’un échantillon de mélange D/T qui va s’échauffer si fort que la fusion va s’y déclencher. De plus, on se retrouvera ici avec un milieu réactionnel bien plus dense que celui utilisé dans un régime de confinement magnétique, ce qui augmentera d’autant la probabilité de la fusion. On utilisant des quantités minimes de matériel, on devrait pouvoir obtenir des micro-explosions thermonucléaires génératrices de chaleur...
Cette compression “explosive” est la principe du confinement dit “inertiel” dont nous allons examiner les deux variantes...

Poussons, poussons, les pernicieux neutrons...
Pour obtenir des pressions comparables à celles régnant au centre d’une étoile, il est nécessaire de provoquer la compression d’une cible de deutérium/tritium. Comme il est impossible de comprimer matériellement la cible, on utilise pour cela des rayonnements qui vont provoquer l’implosion de la cible, de géométrie sphérique et de taille millimétrique. 2 millions de Joules doivent être focalisés pendant 4 milliardièmes de s sur la cible pour obtenir une fusion.
Les rayonnements intenses et brusques provoquent la vaporisation des couches externes de la cible qui se détendent brusquement, provoquant par réaction la formation d’une onde de compression qui se propage vers l’intérieur de la cible à 100000 m/s, ce qui réduit son volume d’un facteur compris entre 1/1 000 et 1/10 000,
permettant d’obtenir au centre de la cible une densité multipliée par 2000 et une très haute température (120 millions de degrés), initiant les réactions de fusion qui se propagent ensuite, via l’énergie des noyaux d’He créés, au volume résiduel (30% de celui de départ) de la cible. On aurait dû (devrait ?) récupérer ainsi 10 fois plus d’énergie que l’on en fournit au système.
Malheureusement, de nombreuses difficultés subsistent, car ce que nous venons de décrire n’est valable que pour une cible parfaite parfaitement irradiée de façon parfaitement isotrope... ce qui n’a jamais pu être encore réalisé. Si les différentes couches constituant la cible ne sont pas exactement sphériques ou si l’irradiation de celle-ci n’est pas assez isotrope (chaque point de la bille devant recevoir une quantité d’énergie identique) l’onde de compression n’est pas parfaitement sphérique et des instabilités de produisent dans la cible, dégradant les performances du système en déclenchant au mieux la fusion d’un volume insuffisant de matière pour récupérer de l’énergie...
Initialement, il a été essayé de comprimer directement la cible au moyen de faisceaux lasers (on a poétiquement appelé cette voie “l’attaque directe”). Pour cela, il est nécessaire de créer un front de compression exactement sphérique, ce qui veut dire que les faisceaux doivent déposer la même quantité d’énergie au même instant (à bien moins qu’une ns près, l’échelle de temps considéré étant ici la ps!) sur tous les points d’une bille creuse contenant 0,3 mg de D/T sous forme de D/T gazeux entouré par du D/T solide (refroidit à 19 K, soit - 254 ° C) recouvert d’une couche métallique la plus lisse possible. Dans ce but, le nombre de faisceaux laser utilisé doit être multiple de 12 afin de répartir au mieux l’énergie des faisceaux sur la sphère (une sphère pouvant être recouverte entièrement par 12 pentagones de même surface). Les différents faisceaux se recouvrent mutuellement sur la cible afin d’assurer une couverture la plus homogène possible.
Malgré plusieurs expériences réalisées aux USA voici plusieurs dizaines d’années, il a été impossible d’obtenir un dépôt d’énergie à symétrie sphérique sur la bille de combustible. Pendant l’implosion, de nombreuses instabilités apparaissent qui dégradent le bilan de la fusion (ou ne permettent pas de l’obtenir). Insistons sur la symétrie sphérique de l’implosion, qui peut être perturbée par toute “rugosité” de la surface de la cible ainsi que par toute différence d’intensité des différents faisceaux qui la frappe. Ainsi, les différences de pression sur les points de la cible doivent être inférieurs à 1%, la compression les amplifiant ensuite. Ces différences provoquent à l’intérieur de la cible des turbulences qui mélangent ses différents constituants (enveloppe, mélange DT) avant que la fusion ne puisse se déclencher, et limite à la fois l’obtention de la fusion et son rendement si cette dernière se produit (un trop faible % du mélange D/T est consommé).
      Pour essayer de résoudre cette difficulté, les physiciens ont imaginé une attaque indirecte, plus homogène, de la cible: les faisceaux laser chauffent un cylindre métallique d’un cm environ (de l’or, souvent) contenant la cible, qui peut alors prendre la forme d’une pastille. Le cylindre vaporisé est converti en plasma et émet un intense rayonnement X absorbé par la cible et provoquant alors son implosion. Seulement, en rajoutant un “intermédiaire”, les rayons X, on dégrade le rendement énergétique du système. Ainsi, un tiers de l’énergie émise par les lasers est consommée par la vaporisation du cylindre entourant la cible et sa transformation en émetteur de rayonnement X. Cette idée lumineuse a été validée que par des simulations ainsi que par des expériences militaires mettant en jeu les flux intenses de neutrons obtenus lors d’explosions atomiques souterraines (expérience Centurion halite en 1988, où 50 MJ provenant dune explosion ont irradié plusieurs cibles de D/T en provoquant une fusion à haut rendement - 6).
Bien que plusieurs nations construisent des installations de ce type, les plus développées sont le projet mégajoule LMJ français (240 lasers) et le NIF (192 faisceaux) aux USA. Toutefois, ces projets ne sont pas clairement présentés comme des moyens d’obtenir une fusion à visée énergétique, mais bel et bien (pour le NIF en tout cas) comme des moyens d’étude des plasmas à haute température et densité. Comme le confinement obtenu aboutit à de mini explosions thermonucléaires, les militaires sont également très intéressés à ces projets (au point que le projet mégajoule est intégralement financé par la défense) pour des raisons assez obscures (leur utilisation en “remplacement” de tests souterrains en vraie grandeur semble peu crédible, peut être faut il s’orienter vers l’intérêt d’une source de bouffées de neutrons très énergétiques pour les applications militaires, ou d’autres usages encore secrets).
Ces questions se posent, car, trois fois hélas, les lasers présentent une faiblesse majeure sur la voie de la fusion: leur rendement énergétique est catastrophique: le prédécesseur du NIF, les lasers de NOVA (30 Kj) ne déposaient sur la cible que 0,1 % de l’énergie nécessaire à leur création. Même les futurs lasers du NIF (et à fortiori notre glorieux projet mégajoule national) ne devraient offrir un rendement énergétique que de 0,5 % au maximum, et personne ne voit actuellement comment l’efficacité d’un laser pourrait dépasser 1 %...
Le résultat de ces rendements lamentables est sans appel: même si le NIF (ou LMJ) permettent de générer autant d’énergie de fusion qu’ils en auront transmise à leur cible (ce qui est, en fait, le but du NIF), l’énergie libérée par les lasers sera 100 fois inférieure à celle nécessaire pour les faire fonctionner ! Voici un sombre nuage qui se profile sur l’avenir supposé radieux de la fusion par confinement inertiel à laser...

La lumière, c’est bien, la matière, c’est mieux.
Bien que les équipements les plus coûteux utilisent des lasers pour créer l’implosion de la cible, une autre voie est également étudiée, où les faisceaux incidents ne sont plus constitués de lumière mais de matière: des ions lourds accélérés à grande vitesse. Ces faisceaux possèdent en effet de nombreux avantages (décisifs?) par rapport aux lasers:
- ils ont un très bon rendement (15 % actuellement, soit... 150 fois celui des lasers!)
- on peut renouveler les faisceaux avec une grande fréquence
- leur technologie, bien connue, est plus fiable que celle des lasers de puissance.
- ils sont plus faciles à diriger sur la cible
L’étude de la production, du transport et de la focalisation de ces faisceaux est en cours. Un projet actuel comme l’HIDIF européen envisage la réalisation de 48 faisceaux d’ions Bismuth à 10 GeV.

Le X mène à tout: la striction axiale.
Puisqu’il est possible d’obtenir la fusion avec un rayonnement X intense, ne pourrait-on pas trouver une autre façon d’obtenir ces rayons X qu’une nuée de lasers ou de canons à ions ? Les militaires, décidément partout dans ce secteur, utilisaient une technique leur permettant de soumettre l’électronique des missiles et autres têtes nucléaires à des rayonnements intenses, et c’est à partir de leurs dispositifs de test qu’ont été mises au point les machines à “striction axiale” (dites aussi “Z-pinch”, c'est-à-dire à pincement de l’axe magnétique) où des rayons X intenses sont obtenus au moyen de fils métalliques transformés en plasma par une impulsion électrique très brève (100 ns!) mais plus qu’intense (20 millions d’ampéres!) et enfermée dans une cavité réfléchissant les rayons X vers... une cible de D/T située au centre du système.
Le rayonnement X produit baigne uniformément la cible (tout comme l'enveloppe d'une bombe H piège le rayonnement provenant de la bombe A qui l’amorce, un sujet abondamment étudié et validé par les militaires grâce à des budgets quasi illimités...).
En fait, l’impulsion intense de courant génère un champ magnétique qui comprime les plasmas issus des fils en un tube qui s’effondre jusqu’à ce que l’énergie cinétique de ses constituants soit convertie en rayonnement X. La puissance libérée est alors voisine de 300 TW, ce qui provoque la fusion. Cette approche élégante mêle à la fois le confinement inertiel et l’action des champs magnétiques (d’ailleurs, à l’origine, c’est ce diable d’homme de Sakharov qui avait exploré la physique de la striction, c'est-à-dire la compression axiale de champs magnétiques). Actuellement, ces dispositifs sont surtout utilisés pour réaliser des études d’astrophysique (étude de l’enveloppe des supernovae ou des étoiles variables), mais ils pourraient fort bien atteindre le breakeven avec une intensité de... 60 millions d’ampères ! Dans ces conditions de fusion à gain élevé (rentable), le rayonnement X serait de 16 MJ et 1000 TW (soit la consommation électrique de dix millions de foyers pendant plusieurs heures concentrée en une fraction de seconde), permettant d’obtenir une température de 3 millions de °C (bien inférieure à celle réclamée dans les tokamaks puisqu’ici nous sommes en condition de densité élevée).
Si l’on résume nos investigations, nous voyons que parmi les différentes voies explorées pour parvenir à la fusion, aucune ne pourra parvenir à une production énergétique avant, pour être réaliste, les années 2060, voire 2080. Bien qu’il ne fasse pas de doute que la fusion puisse être atteinte par les tokamaks ou le confinement inertiel par ion lourd (nettement moins avancé), rien ne justifie à ce jour que les installations nécessaires pour obtenir la fusion soient rentables à l’époque de leur réalisation.
Une étude (7) réalisée en mai 2000 montre toutefois que cette rentabilité est possible, pour peu que l’entretien d’une centrale ne se révèle pas trop dispendieux, ce que seule l’expérience nous montrera...
Mais, entre les térawatts et les milliards de dollars, n’existe t’il pas (encore!) d’autres moyens plus simples d’obtenir une fusion ?

Les fusions “froides”

Où l’on retrouve l’inévitable Sakharov.
Le principal problème pour réaliser une fusion consiste à obtenir un plasma puis à lui fournir assez d’énergie pour que la fusion s’y produise. Pourquoi ne pas se dispenser de l’étape “plasma” et faire se cogner des atomes, qui en plus sont électriquement neutres et évitent ainsi d’avoir à vaincre la répulsion “Coulombienne” engendrée par l’existence de charges électriques de même signe? Parce que le noyau est bien trop éloigné des électrons pour que l’on ait, en agissant ainsi, la moindre chance d’observer une fusion. Et si... on pouvait faire en sorte d’avoir des “mini-atomes” avec des “électrons” bien plus proche du noyau? C’est l’idée qui a germé dans l’esprit de l’inévitable A. Sakharov et, indépendamment, de F.C. Frank dès 1948 (8,9).
En effet, un faisceau d’ions rapides (tiens, comme ceux utilisés dans le confinement par faisceaux ioniques ?) bombardant une cible peut créer des particules nommées muons (qui sont aussi abondants dans les rayons cosmiques qui pénètrent la terre: nous sommes tous traversés par une centaine de muons/s). Les muons sont 207 fois plus massifs que les électrons et portent la même charge.
Si, dans un mélange D/T refroidi, on injecte des muons, l’un d’eux brise une molécule (pas un atome!) et remplace un électron, formant un “muatome” particulier: le muon, 207 fois plus massif que l’électron, orbite 207 fois plus près du noyau! Le muatome peut alors sans répulsion électrique se rapprocher d’un noyau pour y déclencher une fusion libérant He et neutrons... et notre muon, qui, n’ayant pas pris part à l’affaire, peut de nouveau former un nouveau muatome, et ainsi de suite dans la limite imposée par sa courte durée de vie, 2 microsecondes environ, suffisante pour réaliser une centaine de réactions de fusion. Ensuite, le muon se désintègre en un électron et des neutrinos.
Cette “catalyse par muons”, extrêmement élégante, n’est cependant quasiment pas étudiée, car la synthèse des muons réclame trop d’énergie et la catalyse se dégrade au fur et à mesure que le milieu s’enrichit en He... Les rares recherches actuelles visent à augmenter les probabilités et la vitesse de la fusion, mais comme le signalent les chercheurs de l’équipe d’Eskandari au terme d’une de leur publication “ Finalement, l'évaluation du gain en énergie pour la fusion avec catalyse muonique résonante... montre que nous demeurons très très loin des valeurs minimales suffisantes pour être d'un quelconque intérêt dans des applications pratiques” (10).
D’autres chercheurs (Chris Llewellyn-Smith) sont même partis à la recherche d’une particule autre que le muon, à la durée de vie plus longue et à la masse comparable, voire supérieure...
Viens faire des bulles...
Si l’on crée des différences de pression dans de l’eau (ou un autre liquide), par exemple en faisant tourner une hélice, il se forme des bulles lorsque la pression devient inférieure à la pression de vapeur saturante du liquide. Ce phénomène s’appelle la cavitation. Par la suite, ces bulles microscopiques naissent, grossissement puis “s’effondrent” rapidement. Comme toute bulle qui se respecte, leur symétrie est sphérique et leur effondrement est isotrope... ce qui devrait nous rappeler les aventures de nos cibles à confinement inertiel.
Les physiciens ont mis en évidence le fait que de telles bulles, obtenues par les variations de pression engendrées par des ultrasons, pouvaient même émettre de la lumière. Cette sonoluminescence est une émission spontanée, pendant quelques ps, de lumière par des bulles de taille micrométrique. Les physiciens ont réussi à étudier ce phénomène limité à une seule bulle isolée. Leurs mesures ont indiqué une température minimale de 10000 °C, impliquant la formation d’un tout petit volume de plasma. L’explication du phénomène faisait tout d’abord appel à la pression de l’eau environnante, mais il est devenu évident qu’il était possible qu’il se forme dans la bulle en contraction une onde de choc supersonique, à symétrie exactement sphérique, et comprimant le plasma vers le centre de la bulle... ce qui était réalisable sur le coin d’une paillasse, pour quelques milliers de dollars, et qui était (vainement) recherché par le confinement inertiel avec quelques milliards de dollars...
Mais peut-on obtenir ainsi les conditions nécessaires à la fusion des noyaux contenus dans ce plasma ?
Dès 1978, le Pr. H. G. Flynn, de l’université de Rochester, envisageait la possibilité théorique d’obtenir une fusion par cavitation dans un métal liquide selon une méthode qu’il avait brevetée (11)
D’autres chercheurs (Seth Putterman de l’UCLA, dont nous reparlerons, Roger Stringham, Fukushima,Yamamoto...) ont par la suite étudié les températures régnant à l’intérieur des bulles en compression, montrant que l’on pouvait ainsi atteindre le million de °C (12). Bien que Stringham ait annoncé dès 1993 avoir obtenu une fusion, celle-ci est reconnue seulement possible (pour le deutérium) par William C Moss, qui simule les phénomènes de sonolumiscence (13). En 1996, Stringham publia des observations montrant qu’il avait peut-être obtenu des réactions de fusion (14), mais qui n‘étaient pas assez précises (il se basait sur la production d’un excès de chaleur).
Jusqu’à cette époque, la “sonofusion” était regardée comme une curiosité, entre le canular et le divertissement pour expérimentateurs. Mais voici qu’après beaucoup de tergiversations et d’hésitations, une revue de premier plan, Science, publie le 8 mars 2002 le premier article de l’équipe de R.P. Taleyarkhan (15) de l’Oak Ridge National Laboratory. Cette équipe dit avoir obtenu et caractérisé des réactions de fusion dans de l’acétone “lourde” (dont l’hydrogène a été remplacé par du deutérium) soumise à un bombardement de neutrons rapides. L’acétone lourde est un liquide dans lequel les bulles, bien plus grosses que dans l’eau (elles atteignent une taille millimétrique) peuvent provoquer une implosion plus intense et permettre d’obtenir un plasma bien plus chaud. Les auteurs observent la formation de tritium et la production de neutrons attendue pour une fusion D/D.
Ces publications, reprises et discutées, sont à l’origine d’une polémique scientifique (dont, fait exceptionnel, le staff de “science” se fait l’écho dans la revue elle-même) car elles ne sont pas facilement reproductibles (le dégagement de neutrons, en particulier, n’est pas toujours observé) et le labo d’Oak Ridge, essayant de faire reproduire la manip. par une autre équipe avant publication, n’a pu en obtenir confirmation (16). C’est à ce stade que se sont arrêtées les “investigations” de la presse scientifique française (“la recherche” en tête) pour qui l’affaire est entendue et la sonofusion un exemple de mauvaise interprétation. Voire.
Deux chercheurs de l’université de l’Illinois, insistant cependant sur le caractère très mal connu du milieu régnant dans les bulles, avancent que l’énergie crée par l’onde de choc n’est pas disponible pour la fusion, car elle est consommée par des réactions chimiques (17) alors que d’autres équipes (18) ont récemment échouée à obtenir la fusion dans de l’eau lourde avec une cavitation induite par laser.
L’équipe de Taleyarkhan n’en démord pas, et précise ses conditions expérimentales, améliorant la sensibilité de ses détecteurs de neutrons (qui posait problème) et obtient toujours tous les indices d’une fusion du deutérium (19). Même la BBC, dans le cadre de son émission “Horizon”, fait reproduire les expériences de R. P. Taleyarkhan par d’autres équipes (surréaliste vu de France: quand verrons-nous France 2 capable de faire réaliser des manips . de physique !?) mais n’observe pas de dégagement de neutrons. Malgré ces absences de confirmation, l’équipe d’Oak Ridge a impulsé un nouveau champ de recherche, et plusieurs équipes étudient les plasmas se formant lors de cavitations se produisant dans des liquides variés. Contrairement à ce qu’ont prétendu les revues françaises (la sonofusion n’a pas l’air d’intéresser grand monde de ce coté ci de l’atlantique), la messe n’est pas dite: deux chercheurs de l’université de Purdue viennent de confirmer l’émission de neutrons à 2,45 Mev (20) et présenteront leurs résultats en octobre de cette année.
Que conclure de ce “confinement inertiel acoustique“? Que le phénomène mérite d’être étudié de plus près, la possibilité d’une fusion étant réelle. Même si toute application pratique énergétique est très lointaine, il permettrait de pouvoir étudier à loisir ce phénomène sur un coin de paillasse, ce qui ouvrirait alors un passionnant champ de recherches expérimentales à faible coût sur la fusion.

Où S. Putterman se prend pour le Captain Kirk et invente le “dilitium”: la fusion pyroélectrique dans des cristaux.
En Avril 2005, l’équipe de S. Putterman, à l’UCLA, publie dans “Nature” des résultats montrant qu’il est possible d’obtenir la fusion avec “un cristal ordinaire plongé dans du deutérium, dans un appareil pas plus grand qu’une tasse à café” (21). Pour obtenir ce résultat surprenant, l’équipe de Putterman utilise un cristal pyroélectrique de tantalate de lithium (LiTaO3).
Vous connaissez tous un effet très voisin de l’effet pyroélectrique, l’effet piézoélectrique : si l’on déforme certains cristaux, il se crée un champ électrique intense. Quiconque a déjà utilisé un allume-gaz sait que ce champ est assez intense pour provoquer l’apparition d’un arc électrique dans l’air (soit 30000 V/cm). Le cristal utilisé par l’équipe de l’UCLA génère, lui, un puissant champ électrique lorsqu’il est chauffé. Cet effet avait été utilisé par J.D.Brownridge (22) pour obtenir une émission de rayons X (le champ accélère les électrons du milieu ou baigne le cristal et lorsqu’ils percutent les noyaux du cristal, ils perdent leur énergie sous forme de rayonnement X), permettant ainsi à la société Amptek de mettre au point un générateur de rayons X de la taille d’une pièce de 10 cents (23).
Putterman s’est demandé si ce champ était suffisant pour accélérer des ions au point de réaliser une fusion par “bombardement” d’une cible, comme dans un accélérateur de particules. Le champ électrique (100 KV, 25 GV/m, focalisé par une pointe de tungstène) a été obtenu en réchauffant le cristal de -33°C à 7°C, provoquant ainsi en quelques min une accélération des noyaux de deutérium provenant du gaz baignant le cristal, qui sont projetés avec force sur une cible de deutéride d’Erbium. En se percutant, quelques (1 sur 1 million !) noyaux fusionnent, et produisent de l’He et un flux de 1000 neutrons/s. Bien que ce procédé n’ai pas d’applications énergétiques (il faudrait un flux neutronique 10000 fois plus important!), il constitue une excellente voie pour obtenir une source légère de neutrons.
De plus, ces recherches démontrent qu’il n’est pas indispensable, pour obtenir un jet d’ions très énergétique, d’utiliser une alimentation électrique importante: à petite échelle, le chauffage modéré d’un cristal suffit... L’équipe de l’UCLA, outre une source de neutrons, envisage également l’utilisation de ces cristaux comme micropropulseurs pour de petits engins spatiaux, la propulsion se faisant par les courants ioniques créés.

Et l’électrolyse ?
En 1989, deux ingénieurs de l'Université de l'Utah, Martin Fleischmann et Stanley Pons, ont affirmé avoir obtenu un dégagement de chaleur inattendu lors de l’électrolyse de l’eau lourde au moyen d’électrodes de platine. Ils ont interprété leur résultat comme provenant d’une fusion nucléaire se produisant dans leur milieu, à température ambiante. De nombreux physiciens refirent l’expérience décrite, certains confirmant les résultats, d’autre ne pouvant les observer. Une intense polémique se développa, où l’on reprocha plus aux deux chercheurs la forme de leur travail (annonce dans des journaux “tout publics” avant publication dans les revues scientifiques) que le fond: les deux chercheurs, aujourd’hui en retraite, ont bel et bien mis en évidence, comme de nombreuses recherches et enquêtes l’ont montré, un phénomène nouveau. Toutefois, la formation d’He ou de tritium ainsi que la production de neutrons n’ont pu clairement, de façon reproductible, être mis en évidence. Cette difficulté signifie que, même dans le cas où des réactions de fusion, pour des raisons mal connues, se produisent, ces dernières ne pourraient être utilisées comme source d’énergie, mais comme système d’étude potentiel.

De l’énergie pour (après) demain ?
Au terme de notre rapide voyage au pays de la fusion, quelles conclusions pouvons-nous tirer ?
Nous avons vu que la production d’énergie à partie de la fusion, si elle a réalisé de gros progrès depuis un demi-siècle (la puissance libérée par la fusion DT a progressé plus vite que la capacité des mémoires électroniques et la puissance des lasers pour la fusion inertielle a été multipliée par 1 milliard), n’est pas, au vu des investissements réalisés, envisageable avant au bas mot un demi-siècle. Ces études nécessitent des instruments de recherche fondamentale présentés (délibérément ?) de façon erronée par des politiciens “fiers, ignorants et naïfs” (dixit Claude Allègre, qui doit savoir de quoi il parle...), comme des outils industriels. Toutefois, une inflexion de cette politique permettrait de développer une filière “fusion sans ignition” plus rapidement, en cas de besoin.
Pour le moment, le principal intérêt de la fusion, outre l’étude des plasmas d’un immense intérêt fondamental (en astrophysique, par exemple), consiste en l’obtention de sources de neutrons intenses qui peuvent trouver des applications:
- dans les sciences des matériaux
- dans l’imagerie médicale
- dans la recherche fondamentale
- dans une possible utilisation comme “actinide-burner”, voie (spéculative) visant à irradier des déchets nucléaires de fission, à longue durée de vie, pour les transmuter en matériaux radioactifs moins dangereux (à durée de vie plus courte et surtout sans intérêt militaire).
Il est également patent que la fusion ne se réduit pas aux projets ITER et mégajoule et que des structures plus innovantes et inventives seront peut-être celles qui permettront d’obtenir plus facilement l’électricité indispensable aux activités humaines.

Références
1 - A. Hasegawa, Comm Pl Phys & Cont Fus, 1, (1987) 147.
2 - http://www.iter.org/
3 - Les étoiles - Time-life, 1989, 53-93
4 - G. M. Voss, S. Allfrey, A. Bond, Q. Huang, P. J. Knight, H. R. Wilson. A Conceptual Design of a Spherical Tokamak Power Plant Euratom, UKAEA Fusion association (1999)
5 - J. Kesner, D.T. Garnier, A. Hansen, M. Mauel, L. Bromberg, D-D Fusion in a Levitated Dipole, Nuclear Fusion 44 (2004) 193
6 - W.J. Broad, New York times, 137, No. 47451, 21/03/1988
7 - La fusion thermonucléaire: problématique de l’urgence d’une développement d’un projet à long terme. F. Coppex • Ecole polytechnique férédale de Lausanne - département de physique, 05/2000
8 - F.C. Frank, Nature 525, 1947.
9 - A.D. Sakharov, Lebedev Rep.,1948
10 - R. Eskandari, S.N. Hoseini-Motlagh, B. Rezaie. Studies on muonic dynamics of liquid D–T–H in dt muonic-molecule resonance formation and its comparison with a D–T system. Can. J. Phys./Rev. Can. Phys. 80(10), 2002,1099-1114
11 - Brevet US 4,333,796: Method of generating energy by acoustically induced cavitation fusion and reactor therefor. Nuclear fusion energy prodn. by liquid cavitation - using acoustic devices to produce alternating pressure pulses in liquid metal containing hydrogen isotopes. Déposé le 19 mai 1978.
12 - Putterman, 1992
13 - Phys. Fluids 6(9) 2979, 01/09/1994
14 - George D.R., Stringham R.S. Technical report on the demonstration of new technology producing heat and nuclear products via cavitation induced micro-fusion in the E-Quest Sciences Mark II research device", EPRI Project Final Report, Work Order #3170-28, Palo Alto, CA,05/1996.
15- R. P. Taleyarkhan, C. D. West, J. S. Cho, R. T. Lahey Jr., R. I. Nigmatulin, R. C. Block. Evidence for Nuclear Emissions During Acoustic Cavitation. Science, Vol 295,5561, 1868-1873, 8/03/ 2002
16 - Shapira D, Saltmarsh M. Nuclear fusion in collapsing bubbles-is it there? An attempt to repeat the observation of nuclear emissions from sonoluminescence. Phys Rev Lett. 2/09/2002 ;89 (10): 104302.
17 - Didenko YT, Suslick KS. The energy efficiency of formation of photons, radicals and ions during single-bubble cavitation. Nature. 25/07/2002; 418(6896): 394-7.
18 - R. Geisler, W.-D. Schmidt-Ott, T. Kurz and W. Lauterborn. Search for neutron emission in laser-induced cavitation. Europhys. Lett., 66 (3) 435-440, 2004
19 - R. P. Taleyarkhan, J. S. Cho, C. D. West, R. T. Lahey, Jr., R. I. Nigmatulin, R. C. Block. Additional evidence of nuclear emissions during acoustic cavitation. Phys. Rev. E 69, 036109, 2004
20 - Yiban Xua, Adam Butt. Confirmatory experiments for nuclear emissions during acoustic cavitation. Nuclear Engineering and Design 235 (2005) 1317-1324.
21- B. Naranjo, J.K. Gimzewski and S. Putterman. Observation of nuclear fusion driven by a pyroelectric crystal. Nature 434, 1115-1117, 2005.
22 - J.D. Brownridge, S. Raboy. Investigations of pyroelectric generation of X-rays. Journal of Applied Physics, Vol. 86, No. 1, July 1999.
23 - http://www.amptek.com/coolx.html


Bibliographie
Il est assez difficile de trouver des ouvrages en français qui ne soient pas idéologiquement marqués. Aussi, je me suis limité à des ouvrages essentiellement techniques et scientifiques “brut”.
- La fusion nucléaire. J. Weisse, puf coll “que sais je”, 2003
- Astrophysique nucléaire J Audouze, S Vauclair. puf “que sais je”, 4éme ed., 2003
- La fusion nucléaire. J. Adam, 1993, coll sciences d’avenir, Belin
- Structure et évolution des étoiles, P. Ledoux, 1979 in “la nouvelle astronomie, science de l’univers”

Remarques
Température, chaleur et énergie
On pourra être surpris en lisant cet article, des températures envisagées et des unités utilisées. Précisons un peu. La température représente le degré d’agitation des molécules (ou des atomes, des ions, des électrons... selon les cas). Plus l’agitation est importante, plus ces particules ont une vitesse élevée, plus ils transportent d’énergie et plus leur température est élevée (dans l’air à 20°C, par exemple, les molécules de dioxygène O2 ont une vitesse voisine de 500 m/s)
La notion de chaleur est distincte de la température. Dans une pièce, tous les meubles sont à la même température. Néanmoins, si vous touchez des objets en bois et en métal, vous aurez l’impression que le métal est plus “froid”. Cette sensation est causée par la conductivité thermique différente de ces matériaux, qui n’ont pas la même capacité à “conduire” la chaleur. L’air est ainsi un bon isolant: lorsque vous attrapez une pizza dans le four à 200 °C, l’air ne vous brûle pas instantanément, car il transmet très mal sa chaleur. Par contre, vous prenez vos précautions pour ne pas toucher le plat ou les parois du four, pourtant à la même température que l’air !
C’est pour cela qu’un plasma à 100 millions de degrés ne fait pas fondre un tore (les meilleurs alliages solides ne résistent qu’à environ 2000 °C), ce plasma est quasiment “adiabatique”, c'est-à-dire qu’il n’échange pas sa chaleur avec son environnement (à cause, entre autres, de sa faible densité). Pour se chauffer avec, il faut intercepter les neutrons produits.
Ainsi, la “température” (agitation des électrons) dans un tube néon est de 100000 °C alors que le verre fond à 1200 °C, mais vous pouvez toucher un néon sans crainte: le plasma qu’il contient ne traduit pas sa température en terme de chaleur.
Pour graduer leur thermomètre en terme d’agitation, de vitesse des particules, les physiciens utilisent une unité qui est l’électron-volt (eV) correspondant à la vitesse d’un électron accéléré par une différente de potentiel de 1 V. Comme cette unité est très petite, ils utilisent des multiples: 1000 eV sont 1 KeV, ect... Traduits en terme de température exprimée en °C, 1 eV correspond à peu près à 10000°C (11594 pour être exact).

ITER or not ITER ?
Un vif “débat” s’est fait jour lors de la lutte homérique visant à l’attribution d’ITER. De fait, il semble qu’à trop vouloir ménager la chèvre et le chou, et à cause de leur totale inculture scientifique, nombre de mauvaises décisions aient été prises par les politiciens dans ce projet.
Je ne reviendrais pas sur des critiques purement idéologiques ou scientifiquement infondées, mais de nombreux faits doivent être soulignés:
- ITER a été originellement conçu à partie de relations d’échelle semi-empiriques montrant que le temps de confinement de l’énergie est d’autant plus long que la machine est plus grosse. L’ITER des origines devait générer 1500 MW, il a été réduit à 500 MW pour des raisons budgétaires (des économies de bouts de chandelle, vu le tarif global envisagé!), ce qui veut dire que l’ignition sera plus difficile à obtenir... Au lieu d’avoir bâti un équipement très très cher qui fonctionne, on risque de se retrouver avec un monstre très cher qui ne fonctionne pas comme voulu...
- La fusion est effectivement beaucoup moins dangereuse que la fission: la réaction de demande qu’à s’interrompre (c’est la source des difficultés pour l’obtenir!) et la production de déchets radioactifs est très limitée (du tritium faiblement radioactif et de période courte, 9 ans - la radioactivité moyenne des matériaux d'un réacteur à fusion est inférieure à celle des cendres d’une centrale à charbon produisant la même quantité d'énergie). Toutefois, les neutrons qui emportent l’essentiel de l’énergie produite sont interceptés au niveau de la “couverture” faite d’un alliage plomb/lithium. Ils y génèrent du tritium et de la chaleur. Dans ITER, cette chaleur n’est pas récupérée pour fabriquer de la vapeur sous pression. Dans l’optique d’un réacteur, il faudra l’utiliser pour porter de la vapeur à 500°C environ (le plomb sera alors... liquide!). Très rapidement, la couverture sera “activée” par les neutrons et deviendra radioactive. Si le tritium est bien moins radioactif que le plutonium, il a néanmoins un défaut: on ne sait pas l’enfermer de façon étanche, et tout comme son cousin l’He qui s’enfuit inexorablement du joli ballon argenté acheté à la fête foraine, le tritium radioactif devra être collecté, stocké et recyclé par des moyens qui restent à définir (son rayonnement est cependant arrêté par quelques mm d’air, ce qui limite sa dangerosité).
- Dans la même veine, il faudra bien réfléchir à la manière de traiter les centaines de tonnes de plomb rendu radioactif par le tritium qu’il contiendra. Ce point ne sera pas étudié dans ITER mais pour son successeur (très) lointain, DEMO.
- Le développement d’une “filière” fusion de type ITER ne sera pas assez rapide pour que l’on puisse se passer de l’étude et de la construction d’une nouvelle (et dernière ?) génération de réacteurs à fission à la fois plus surs, plus efficaces et générant un peu moins de déchets à longue vie. Il n’est pas dit que les deux voies, réclamant au niveau pratique des compétences parfois similaires, puissent être financées en même temps. C’est donc à tort que la fusion est présentée comme remplaçante de la fission: durant près d’un siècle, les deux filières devront fonctionner conjointement.
- Pour avoir la joie, l’honneur et l’avantage d’accueillir ITER à Cadarache, notre pays va investir 130 millions d'euros par an pendant dix ans (50% du coût de la construction). Même si ce budget n’est pas ponctionné sur celui de la recherche (on va voir pourquoi!) il représente une dépense non négligeable pour laquelle le parlement aurait pu, à minima, être consulté. La dépense annuelle sera de l’ordre du budget total des laboratoires de physique, mathématique et biologie du CNRS... Pourtant, ces 130 millions ne représentent que le coût d’un seul avion de chasse de type rafale (au lecteur de conclure sur la cherté du protégé de Dassault ou sur le financement de la recherche en France...). Il aurait été peut être plus pertinent de mettre sous le boisseau l’orgueil national et, en ayant plus qu’a financer 10% d’ITER, investir 50 millions supplémentaires “seulement” dans les secteurs de la recherche fondamentale en physique ou biologie, et même, pourquoi pas, s’en servir pour la réforme urgente de l’enseignement supérieur et de la recherche qu’il nous reste à mener...
- Le Japon apparaît comme le grand gagnant d’ITER: pour une participation financière minime, il obtiendra non seulement la direction du projet, mais également 1/5 des contrats liés à la construction et du personnel. Des débouchés assurés pour les physiciens nippons, d’autant plus que la physique du solide, domaine dans lequel les scientifiques de l’archipel sont très avancés, tirera profit d’un programme de recherche fondamentale qui s’ajoute à ITER et qui est gracieusement financé par l’Union européenne! Il est permis de penser que d’autres pays moins riches que l’Archipel, mais disposant de chercheurs de très grande valeur, comme l’Inde, auraient été plus intéressés par ce programme... De plus, le Japon aura, le moment venu, de grandes chances d’obtenir l’appui de la France pour venir siéger au conseil de sécurité des Nations unies, lorsque sera venu le moment d’oublier la Seconde Guerre mondiale...