.

La physique de Star Trek
.

La physique de Star Trek.

La physique de Star Trek
Ou comment visiter l'univers en pyjama

Préface de Stephen Hawking
Traduit de l'anglais (États-Unis) par Camille Cantoni-Fort
Ouvrage traduit avec le concours du Centre national du livre

À ma famille

« Mais je ne peux pas modifier les lois de la physique, capitaine ! »
Scotty à Kirk, en d'innombrables occasions.

Préface

J'ai été très heureux de la décision de Data de nous inviter, Newton, Einstein et moi-même, à une partie de poker à bord de l'Entreprise. C'était une occasion pour moi de retourner leurs arguments à deux grands scientifiques « de poids», en particulier Einstein, qui ne croyait ni au hasard ni à l'invention divine. Malheureusement, je n'ai jamais pu récolter ma mise, la partie ayant été interrompue par une alerte rouge. J'ai bien contacté les studios de la Paramount pour changer mes jetons en liquide, mais ils n'étaient pas au courant du taux de change.
La science-fiction telle que la pratique Star Trek n'est pas simple divertissement : elle sert un projet sérieux, qui est d'étendre l'imagination humaine. Il se peut certes que nous ne soyons pas encore capables d'aller, bille en tête, là où aucun homme (ni aucune femme) n'est allé. Du moins pouvons nous le faire mentalement. Nous pouvons explorer les possibles réponses de l'esprit humain aux futurs développements de la science, et spéculer sur la nature de ces développements.
Il y a échange réciproque entre science et science-fiction. La science-fiction suggère des idées que les scientifiques intègrent à leurs théories, mais parfois la science donne naissance à des notions plus étranges que n'importe quelle science-fiction. Les trous noirs en sont un exemple - bien aidés en cela par le nom très inspiré que leur donna leur inventeur, le physicien John Archibald Wheeler. Si on avait continué à les appeler, comme au début, des« étoiles gelées» ou des « objets gravitationnellement effondrés», on n'aurait pas écrit sur eux la moitié de ce qui a été fait.
Star Trek et la science-fiction en général se sont focalisés sur une question précise : celle des voyages plus rapides que la lumière. C'est bien sûr un élément essentiel aux histoires de Star Trek. Si l'Entreprise était condamnée à voler en dessous de la vitesse-lumière, l'équipage aurait peut-être l'impression que le voyage jusqu'au centre de l'univers aurait pris quelques années, mais 80 000 ans se seraient écoulés sur terre avant le retour du vaisseau. Dans quel état retrouverait-on sa petite famille!
Heureusement, la théorie einsteinienne de la relativité permet de contourner cette difficulté : on doit pouvoir distordre l'espace-temps, et créer des raccourcis entre les endroits qu'on souhaite visiter. Malgré les problèmes d'énergie négative, il semble que cette distorsion puisse entrer à l'avenir dans le champ de nos possibilités. Il n'y a guère eu de recherches sérieuses dans ce domaine, en partie, je pense, parce que cela sonne à l'oreille comme de la science-fiction. Une des conséquences des voyages interstellaires serait de permettre les voyages dans le temps. Imaginez les cris d'orfraie sur le gaspillage des crédits si l'on apprenait que la Fondation nationale pour la science finance des recherches sur le voyage dans le temps ! Pour cette raison, les scientifiques qui travaillent dans ce domaine doivent déguiser leur thème de recherche réel sous des termes techniques du type « courbes temporelles fermées», sorte de code pour «voyage dans le temps». Quoi qu'il en soit, la science-fiction d'aujourd'hui est souvent la science de demain. La physique qui sous-tend Star Trek vaut très certainement la peine d'être examinée. Confiner notre attention aux affaires terrestres, ce serait limiter l'esprit humain.

Stephen Hawking

Introduction

Pourquoi la physique de Star Trek? Après tout, la création de Gene Roddenberry relève de la science-fiction, non de la science. Dès lors, nombre des merveilles techniques présentes dans la série reposent sur des notions qui peuvent être mal définies, voire contredire notre compréhension habituelle de l'univers. Je n'ai pas voulu écrire un livre qui revienne simplement à souligner les erreurs des auteurs de Star Trek.
Pourtant, je ne pouvais m'ôter ce projet de livre de la tête. Je l'avoue: ce qui m'a séduit, c'est le téléporteur, Réfléchir aux défis à relever pour concevoir cette technologie fictive amène à envisager des domaines aussi divers que l'informatique, les autoroutes de l'information, la physique des particules, la mécanique quantique, l'énergie nucléaire, la construction des télescopes, la biologie complexe, et même la possibilité que l'âme humaine existe! La confrontation de ces idées avec, par exemple, celle de l'espace distordu, et celle du voyage dans le temps rendait le sujet irrésistible.
Je me rendis bientôt compte que ce qui me fascinait là-dedans était proche de ce qui attire encore aujourd'hui les fans de Star Trek, presque trente ans après la diffusion de la première série. C'est-à-dire, comme Q, le farceur omnipotent de Star Trek, l'exprime, « dresser la liste des possibilités inconnues d'existence». Et aussi, Q en aurait convenu, le plaisir qu'on peut prendre à les imaginer.
Comme Stephen Hawking le constate dans la préface de ce livre, la science-fiction à la mode de Star Trek étend l'imagination humaine. Bien sûr, l'exploration des possibilités infinies que recèle l'avenir - y compris celle d'un monde où l'humanité aurait vu plus loin que ses tensions internationales et raciales et se serait aventurée paisiblement à la découverte d'autres univers - est constitutive du miracle permanent de Star Trek. Et dans la mesure même où elle est au cœur du miracle permanent de la physique moderne, j'ai voulu me concentrer sur elle ici.
Si je me réfère au sondage informel que j'ai effectué l'autre jour en me baladant sur le campus de mon université, le nombre d'Américains incapables de reconnaître la phrase «Téléportation, Scotty» est à peu près comparable au nombre de personnes n'ayant jamais entendu parler du ketchup. Si l'on se rappelle que la reconstitution de l'Entreprise fut le clou de l'exposition de l'Institution Smithson - alors même qu'une véritable navette spatiale s'y trouvait aussi-, je pense que l'on verra clairement que Star Trek est le vecteur naturel d'une curiosité partagée par bien des gens à l'égard de l'univers. Quel meilleur contexte pour introduire quelques-unes des idées les plus remarquables qui occupent le devant de la scène dans la physique actuelle et annoncent celle de demain.
J'espère que vous apprécierez le voyage· autant que moi.
Longue vie à vous, portez-vous bien.

Première partie

Une partie de poker cosmique

Où la physique des amortisseurs inertiels et des faisceaux magnétiques prépare le terrain pour les voyages dans le temps, la vitesse de distorsion, les boucliers déflecteurs, les mini-trous noirs et autres excentricités spatiotemporelles.

1 - Newton est le premier à miser

« Peu importe où vous allez : vous y êtes.» Inscription relevée sur une plaque du vaisseau spatial Excelsior, in Star Trek VI: La contrée inconnue. Sans doute empruntée aux Aventures de Buckaroo Banzaï:

Vous êtes aux commandes du vaisseau spatial le Defiant NCC-1764, actuellement placé en orbite autour de la planète Iconia, à proximité de la Zone neutre. Votre mission : vous rendre à l'autre extrémité du système solaire, escorté d'un vaisseau auxiliaire, pour réparer quelques enroulements primaires de téléportation. Inutile de passer en vitesse de distorsion : ordonnez seulement de pousser au maximum la manette de propulsion, histoire de voyager tranquille, à 50 % de la vitesse-lumière. Cela devrait vous amener à destination en quelques heures, et vous donner le temps de mettre à jour votre journal de bord. Mais, alors que vous quittez votre orbite, vous sentez soudain une forte pression s'exercer sur votre poitrine. Vos mains deviennent lourdes comme du plomb, et vous êtes littéralement collé à votre siège. Votre bouche se crispe en une affreuse grimace, vous avez l'impression que vos yeux vont jaillir de votre tête, et le sang cesse d'irriguer votre cerveau. Bientôt, vous perdez connaissance ... Quelques minutes plus tard, vous êtes mort.
Que s'est-il passé? S'agit-il des premiers symptômes d'une dérive spatiale d'interphase, qui d'ici peu gagnera tout le vaisseau, ou de l'attaque surprise d'un vaisseau spatial romulien qui s'était dérobé aux radars? Rien de tout cela: c'est quelque chose de bien plus puissant. En fait, les ingénieux auteurs de Star Trek n'ont pas encore inventé les amortisseurs inertiels, qu'ils introduiront un peu plus tard dans la série. Vous avez été vaincu par la très banale loi de gravitation d'Isaac Newton - la première chose qu'on oublie de ses cours de lycée.
Bon, j'entends d'ici quelques fans grommeler: « C'est n'importe quoi! On ne va quand même pas nous ressortir Newton! Parlez-nous plutôt de ce que nous avons vraiment envie de savoir, par exemple : comment fonctionne l'hyper-propulsion? Qu'est-ce que c'est que cet éclair qu'on voit au moment de passer en vitesse de distorsion - est-ce un genre d'explosion sonique? Et qu'est-ce au juste qu'un cristal de dilithium? » Patience, nous y viendrons en son temps. Voyager dans l'univers de Star Trek amène à rencontrer quelques-uns des concepts les plus ésotériques de la science physique. Mais il nous faut aborder bien d'autres aspects avant de pouvoir répondre à la question fondamentale que tout le monde se pose sur Star Trek : « Est-ce que tout cela est vraiment possible, et si oui, comment ?»
Pour nous rendre là où personne avant nous n'a mis les pieds - et avant même de quitter le Quartier général de la Flotte spatiale-, il nous faut examiner certaines bizarreries sur lesquelles Galilée et Newton se sont penchés il y a trois cents ans. Notre but ultime sera de répondre à la question cosmique qui était au cœur de la conception du créateur de Star Trek, Gene Roddenberry, et qui, à mes yeux, rend cette série digne de réflexion i « Qu'est-ce que la science moderne nous permet d'imaginer quant à l'avenir de notre civilisation ?»
Quiconque a déjà voyagé en avion ou à bord d'une voiture rapide a éprouvé la sensation d'être plaqué contre son siège au démarrage du véhicule. Ce phénomène est amplifié à bord d'un vaisseau spatial. Les réactions de fusion dans le propulseur produisent des pressions considérables, lesquelles projettent à l'arrière du vaisseau des gaz et des émanations, qui à leur tour provoquent sur les moteurs un véritable effet de recul ... vers l'avant. Le vaisseau, auquel sont arrimés les moteurs, subit ce même mouvement. Vous-même, vous êtes poussé vers l'avant à cause de la pression du siège de commandement sur votre corps. Celui-ci réagit en exerçant une pression contraire sur le siège.
Et voilà précisément le hic. De même qu'un marteau abattu à grande vitesse sur votre tête exercera sur votre crâne une force dont les effets seront le plus souvent mortels, de même le siège de commandement vous tuera si la force qu'il exerce sur vous est trop grande. Les pilotes de chasse et ceux de la NASA ont donné un nom à cette force qui s'exerce sur le corps lors d'accélérations brutales, en avion ou au décollage d'une navette spatiale: la force gravitationnelle, ou force G. Je proposerai, pour l'expliquer, une comparaison avec mon dos, en ce moment fort douloureux : assis devant mon ordinateur et tapant à toute vitesse mon texte, je ressens la pression constante de ma chaise de bureau sur mon postérieur. Cette pression, j'ai appris à vivre avec (bien que, si je puis me permettre, mon postérieur y réagisse de façon assez peu esthétique). Cette force est celle de l'attraction terrestre qui, si elle avait libre cours, m'attirerait immédiatement vers le centre de la Terre. Ce qui m'empêche de céder à cette attraction, et tout simplement de tomber de mon siège, c'est le sol qui exerce une pression contraire, vers le haut, sur les fondations de béton et d'acier de ma maison, de là, sur le parquet en bois de mon second étage ( où je travaille), et enfin sur ma chaise, qui la reproduit sur la portion de mon corps en contact avec elle. Si la Terre pesait deux fois sa masse sans changer de diamètre, la pression serait deux fois plus grande. Il faudrait alors que la force ascensionnelle compense cette augmentation de la force de gravité en redoublant d'intensité.
Ces facteurs doivent être pris en compte pour les voyages dans l'espace. Supposons que vous soyez assis dans le fauteuil de commande, et que vous ordonniez au vaisseau d'accélérer: il vous faut prendre en compte la force avec laquelle le fauteuil vous poussera en avant. Si vous ordonnez de doubler l'accélération, la force exercée sur vous par le fauteuil sera deux fois plus grande. Plus l'accélération sera forte, plus la pression grandira. Le seul problème, c'est que rien ne peut résister à l'accélération nécessaire pour atteindre la vitesse de propulsion, et surtout pas votre corps.
Du reste, ce problème particulier apparaît à plusieurs reprises dans Star Trek, y compris dans les épisodes qui se passent sur Terre. Au début de Star Trek V: L'ultime frontière, James Kirk fait de la varappe dans la vallée de Yosemite au cours de ses vacances. Il glisse, et tombe. Spock, qui est chaussé de ses bottes à propulsion, vole à son secours et arrête la chute du capitaine à quelques mètres du sol. Hélas ! voici un cas où la solution peut s'avérer pire que le problème. Ici, c'est cet arrêt brutal de la chute qui peut se révéler mortel, qu'il soit dû au sol ou à la poigne vulcanienne de M. Spock.
Cependant, avant même qu'interviennent les réactions physiques qui déchireront ou briseront votre corps, d'autres problèmes physiologiques non moins graves auront surgi. Tout d'abord, votre cœur ne parviendra plus à pomper le sang nécessaire pour irriguer votre cerveau. C'est la raison pour laquelle les pilotes d'avion de chasse s'évanouissent parfois lors d'une brusque accélération. Des combinaisons spéciales ont été créées pour contraindre le sang à monter depuis les jambes des pilotes et leur permettre de garder toute leur tête lors de l'accélération. Cette réaction physiologique est un sérieux handicap pour déterminer quelle vitesse d'accélération peut atteindre une navette spatiale. Voici pourquoi la NASA, contrairement à Jules Verne dans son célèbre roman De la Terre à la Lune, n'a jamais lancé trois hommes en orbite par un tir de canon géant.
Si je décide d'accélérer de O à 150 000 km/s - soit la moitié de la vitesse-lumière -, il me faudra le faire graduellement, sans quoi mon corps sera disloqué au cours du processus. Pour que je ne sois pas écrasé sur mon siège par une force supérieure à 3 G, l'accélération ne doit pas être supérieure à trois fois l'accélération d'un objet dans sa chute sur terre. À ce niveau d'accélération, il me faudrait 5 millions de secondes, soit 2 mois et demi, pour atteindre 50 % de la vitesse-lumière ! L'expérience ne serait pas sans générer quelque ennui.
Pour résoudre ce dilemme, peu après la création du premier vaisseau spatial de la Fédération-1'Entreprise NCC-1701 -, les auteurs du scénario durent répondre aux critiques qui affirmaient que de telles accélérations à bord d'un vaisseau spatial transformeraient l'équipage séance tenante en chili con came 1. Ils s'en tirèrent en créant les « amortisseurs inertiels», sorte d'absorbeurs de chocs cosmiques et ingénieuse trouvaille pour se débarrasser de ce petit problème tenace.
En fait, les amortisseurs inertiels se signalent surtout lorsqu'ils tombent en panne. L'on voit ainsi l'Entreprise échapper de peu à la destruction suite à la perte de contrôle des amortisseurs inertiels : des puces informatiques vivantes, les Nanites, avaient, pour assurer leur développement naturel, dévoré la mémoire morte de l'ordinateur central. À vrai dire, chaque fois ou presque que l'Entreprise est détruite (la plupart du temps au cours d'un égarement temporel), la destruction est précédée par la perte des amortisseurs inertiels. Une perte de contrôle similaire à bord d'un vaisseau spatial romulien nous a permis de constater que les Romuliens ont le sang vert.
Hélas - et cela vaut pour une bonne partie de la technologie exploitée dans l'univers de Star Trek - il est plus facile d'analyser les problèmes que résolvent les amortisseurs inertiels que d'expliquer en quoi exactement ils les résolvent. La première loi physique de Star Trek est celle-ci : plus le problème constaté est basique, plus la solution devra être ingénieuse. La raison en est, et cela nous permet de croire dans l'avenir de Star Trek, que la physique est un édifice scientifique qui ne cesse de bâtir sur ses propres fondations. Les embarras rencontrés dans Star Trek n'exigent pas seulement que l'on recoure à quelques principes de physique, mais également que l'on prenne en considération le moindre aspect des savoirs scientifiques élaborés à partir de ces questions. La physique ne progresse pas par des révolutions, qui balaieraient tous les acquis précédents, mais par des évolutions, qui exploitent ce que les acquis peuvent proposer de plus intéressant. Dans un million d'années, les lois de Newton ne vaudront pas moins qu'aujourd'hui, quelles que soient les découvertes intervenues entre-temps. Si, sur la Terre, nous lançons une balle, elle retombera quoi qu'il arrive. Si, assis à mon bureau, je continue à rédiger jusqu'à la fin des temps, mon postérieur continuera de subir les conséquences évoquées ci-dessus.

Quoi qu'il en soit, il serait injuste de passer sur les amortisseurs inertiels sans tenter une description concrète de leur mode de fonctionnement. Comme je l'ai dit, il leur faut créer au sein de l'astronef un monde artificiel qui annule la réaction due à l'accélération. Les objets à bord du vaisseau sont «manipulés» de façon qu'ils se comportent comme s'ils ne subissaient pas d'accélération. J'ai dit précédemment que l'on a l'impression, au moment de l'accélération, de subir la pression gravitationnelle. Cette relation, qui est à la base de la théorie de la relativité générale telle qu'Einstein l'a énoncée, est beaucoup plus profonde qu'on pourrait le croire à première vue, et n'autorise qu'une solution: il faut tout simplement instaurer à l'intérieur de l'astronef un champ gravitationnel artificiel, qui fournisse une poussée contraire à la force de réaction, et donc l'annule.
Cette solution laisse cependant quelques questions pratiques à régler. Tout d'abord, les amortisseurs inertiels mettent un certain temps à réagir en cas de chocs inattendus. Par exemple, la fois où ï'Entreprise fut catapultée dans une spirale de causalité par le Bozeman qui sortait d'un décrochage temporel, le choc fit valser en tous sens l'équipage sur la passerelle, et cela avant même la rupture du système de distorsion et la panne des amortisseurs. J'ai lu dans les descriptifs techniques de l'Entreprise que le temps de réaction des amortisseurs inertiels est d'environ 60 millisecondes2• Ce laps de temps peut paraître très court, mais suffirait à vous tuer s'il intervenait au cours d'une phase d'accélération. Vous ne me croyez pas? Demandez-vous combien de temps il faut au marteau pour briser votre crâne, ou au sol pour vous écrabouiller lorsque vous dévissez du sommet d'une falaise du Yosemite. De même: subir une collision à 15 km/h revient à se jeter la tête la première contre un mur de brique ! Les amortisseurs inertiels ont donc intérêt à réagir diablement vite. Plus d'un fan a déjà remarqué que, lorsque le vaisseau subit un choc, les personnages ne sont jamais projetés à plus de quelques centimètres ...

Avant de quitter le monde familier de la physique classique, je ne peux m'empêcher de mentionner une autre merveille technologique qui ne fonctionne qu'en dépit des lois de Newton. Il s'agit du faisceau magnétique de l'Entreprise, qui s'est illustré sur Moab IV, dans le sauvetage de la colonie de Génomes. Il fit dévier le cours d'une météorite qui venait droit sur le vaisseau, puis tenta de préserver Bre'el IV en remettant une lune astéroïde dans son orbite (hélas, sans résultat). À première vue, le faisceau magnétique paraît simple, même s'il exerce une force gigantesque : c'est une sorte de corde ou de filin invisible. Telle une corde solide, il permet de remorquer une navette ou un astronef, ou d'empêcher un vaisseau ennemi de s'enfuir. Le problème, c'est que, lorsque nous tirons sur quelque chose à l'aide d'une corde, il nous faut être appuyé soit au sol, soit à un objet qui fasse notre poids. Ceux qui ont déjà pratiqué le patin à glace savent ce qui advient lorsque l'on tente de repousser quelqu'un qui s'accroche à soi. On y parvient, mais au risque de perdre l'équilibre. Sans appui ferme sur le sol, l'on devient la victime impuissante de sa propre inertie.
C'est ce principe qui incite le capitaine Jean-Luc Picard à ordonner au lieutenant Ricker d'éteindre le faisceau magnétique dans l'épisode intitulé «La bataille». Picard fait remarquer que le vaisseau qu'ils sont en train de remorquer peut fort bien se laisser porter par sa propre force d'impulsion, ou inertie. Dans le même ordre d'idée, si l'Entreprise décidait d'utiliser le faisceau magnétique pour repousser le Stargazer, l'impact rejetterait l'Entreprise en arrière tout aussi puissamment qu'il propulserait le Stargazer en avant.
Ce phénomène affecte fondamentalement notre façon de travailler dans l'espace. Supposons que vous soyez un astronaute chargé de resserrer un boulon sur le télescope Hubble. Si vous vous munissez pour cette tâche d'un tournevis électrique, vous vous réservez un rude choc. Après avoir dérivé jusqu'au dit boulon, avoir calé le boulon dans le tournevis, et branché le courant, vous risquez tout autant de vous mettre à tourner autour du boulon que l'inverse. Cela parce que le télescope est beaucoup plus lourd que vous. La force exercée par le tournevis sur le boulon produit une force de réaction qui aura pour effet de vous faire tourner, vous, et non pas le boulon qui est solidement fixé à sa structure. Bien sûr, si vous avez la chance (comme les assassins du chancelier Gorkon) de porter des chaussures de gravité qui vous arriment fermement au sol, vous pourrez vous déplacer aussi efficacement que si vous étiez encore sur Terre.
De même, vous avez pu voir ce qui se produit lorsque l'Entreprise tente de tirer à elle un autre astronef. À moins d'être, de loin, le plus lourd des deux vaisseaux, c'est l'Entreprise qui se déplacera vers sa cible lorsque fonctionnera le faisceau magnétique, et non l'inverse. Dans les profondeurs infinies de l'espace, cette distinction perd du reste tout son sens. S'il n'y a aucun point de référence alentour, comment savoir qui est tiré et qui tire? Cela dit, si vous vous trouvez sur Moab IV, cette malheureuse planète placée sur le trajet d'une étoile égarée, il importe très certainement de savoir si c'est l'Entreprise qui fera dévier l'étoile ou si c'est l'étoile qui fera dévier l'Entreprise !
Je connais un fan qui affirme qu'une solution à ce problème a été suggérée dans au moins un épisode: si l'Entreprise fait marcher ses moteurs de propulsion à l'instant où elle branche son faisceau magnétique, elle crée une force contraire qui compense le recul produit par la traction. Toutefois, je n'ai jamais entendu Kirk ou Picard ordonner de mettre les moteurs en marche en même temps que le faisceau. En vérité, une civilisation capable de concevoir et de construire des amortisseurs inertiels doit pouvoir se passer d'une telle solution, qui ne fait appel qu'à la force brute. Rappelez-vous Geordi LaForge qui avait besoin d'un champ de distorsion pour repousser la Lune autour de Bre'el IV: je pense qu'une manipulation délicate de l'espace et du temps, qui demeure impossible pour le moment, pouvait fournir une solution équivalente. Pour comprendre pourquoi, il nous faut enclencher les amortisseurs inertiels et accélérer, afin d'atteindre le monde moderne de l’espace temps courbe.

2 - Einstein relance la partie

Une petite dame était bien fière
D'aller plus vite que la lumière.
Elle est partie dans la relativité
Et ne rentrera que la nuit dernière.
Auteur anonyme

«Le temps, ou l'ultime frontière» -tel devrait être l'exergue de tout épisode de Star Trek. Les grands allers et retours temporels de l'Entreprise ont commencé il y a trente ans, dans l'épisode - devenu classique - «Demain est hier» (même si un épisode précédent, «Le temps mis à nu», montrait le vaisseau rejeté trois jours en arrière - mais il s'agissait d'un aller simple). Dans cet épisode, l'astronef revient au xx= siècle après avoir frôlé de trop près une « étoile noire» (le terme de « trou noir» n'avait pas encore été vulgarisé). De nos jours, des concepts aussi ésotériques que ceux de mini-trous noirs et de « singularités quantiques» peuplent les épisodes de Star Trek: Le Voyageur, dernière série en date : grâce à Albert Einstein et à ses épigones, l'espace-temps est devenu un ressort dramatique ...
Certes, d'une certaine manière, nous voyageons tous dans le temps. Mais le pathos cosmique qui hisse parfois l'histoire des hommes au rang de la tragédie procède justement de ce que nous semblons condamnés à ne voyager que dans une direction, celle de l'avenir. Et pourtant, que ne donnerions-nous pas pour voyager dans le passé, revivre des épisodes glorieux, corriger nos erreurs, rencontrer nos héros, conjurer des catastrophes, ou, tout simplement, revoir nos jeunes années avec toute la sagesse de notre maturité? Hélas, si la possibilité de voyager dans l'espace se rappelle à nous chaque fois que nous levons les yeux vers les étoiles, nous serons apparemment toujours prisonniers du temps. Ainsi, le questionnement qui fonde non seulement les licences poétiques des scénarios mais aussi une étonnante quantité des recherches théoriques de la physique moderne est simplement celui-ci: sommes-nous vraiment enfermés dans un train de marchandises cosmique, qui jamais ne déraillera?
Les origines du genre littéraire moderne que nous nommons «science-fiction» sont étroitement liées à la question du voyage dans le temps. Le roman de Mark Twain, Un Yankee du Connecticut à la cour du roi Arthur, aujourd'hui un classique, relève plus de la simple fiction que de la science-fiction, bien que l'ouvrage soit construit autour des aventures dans le temps d'un malheureux Américain égaré dans l'Angleterre du Moyen Âge. Peut-être Twain s'est-il contenté d'effleurer les aspects scientifiques du voyage dans le temps pour honorer la promesse faite à Picard, lors de son séjour à bord de ïEntreprise, de ne pas révéler ce qu'il avait vu de l'avenir lorsqu'il serait revenu au XIXe siècle, après avoir franchi la faille temporelle de Devidia IL.. (voir l'épisode intitulé « La flèche du temps»).
C'est en fait le remarquable roman de H. G. Wells, La machine à explorer le temps, qui assura la véritable émergence du thème tant repris et exploité par Star Trek. Wells avait fait ses études à Londres, à l'Imperial College of Science and Technology, et ses romans sont tout autant imprégnés de langage scientifique que les dialogues entre les membres d'équipage de !'Entreprise.
Assurément, les épisodes de Star Trek qui font intervenir les voyages dans le temps comptent parmi les plus captivants de la série. Dans les deux premières séries, dans trois des longs métrages et dans les épisodes des séries Le Voyageur et Profondeur Espace 9 diffusés pour la première fois au moment où je rédigeais ce chapitre, je n'en ai pas recensé moins de vingt deux occurrences. Dans Star Trek- et c'est l'aspect le plus fascinant de ces voyages dans le temps -, tout semble inciter à violer la Règle d'Or, qui interdit aux équipages de la Flotte spatiale de perturber l'évolution historique des civilisations étrangères qu'ils visitent. Pourtant, en remontant le temps, il devient possible d'annuler le présent - voire l'histoire tout entière!
Un paradoxe célèbre a ainsi fait son apparition dans la science, et dans la science-fiction: que se passerait-il s'il était donné à un homme de remonter dans le temps et de tuer sa mère avant même qu'il ne fût né? Indubitablement, son existence serait aussitôt interrompue. Or, de ce fait même, il lui deviendrait impossible de remonter le temps et de tuer sa mère. À l'inverse, s'il ne tue pas sa mère, alors son existence continue. D'où, pour résumer: il se peut que vous existiez alors même qu'il est impossible que vous existiez, et il se peut que vous n'existiez pas, alors même que nécessairement vous existez.
Les voyages dans le temps suscitent d'autres questions, plus insidieuses, mais non moins captivantes et troublantes. Par exemple, au dénouement de la «Flèche du temps», Picard, non sans ingéniosité, envoie un message au XXIX siècle depuis le XIX siècle ( où il est égaré) : il le tape en code binaire dans la tête de Data, détachée du corps de l'androïde, dont il sait qu'elle sera découverte quelque cinq cents ans plus tard, et ressoudée au corps de Data. Nous le voyons taper ce message, puis, par un fondu enchaîné, nous voyons LaForge, au XXIV siècle, réussir à rattacher la tête de Data à son corps. Aux yeux du spectateur, ces deux événements paraissent concomitants. En fait, ils ne le sont pas : la tête de Data, où Picard tape son message, est destinée à rester là pour les cinq cents ans à venir. Supposons maintenant que nous soyons au xxrv= siècle, et que nous regardions attentivement la tête de Data, avant que Picard ne soit remonté au XIX" siècle pour modifier l'avenir: y verrons-nous vraiment le message? Si Picard n'a pas encore fait le voyage aller, me dira-t-on, il ne saurait y avoir de changement dans la tête de Data. Néanmoins, les modifications apportées à la programmation électronique de Data ont eu lieu au XIXe siècle, que Picard soit ou non revenu dans le passé pour les accomplir. Ces modifications ont donc été faites, même si Picard n'a pas encore quitté l'Entreprise ! Ainsi, une cause intervenue au XIXe siècle (Picard tape son message) peut produire son effet au xxrv= siècle (les circuits de Data sont modifiés) avant que la cause intervenue au xxrv= siècle (Picard quitte le vaisseau) n'ait produit son effet au XIXe siècle (Picard arrive dans la cave où se trouve la tête de Data), effet qui devait justifier la cause première (Picard tape son message).
Cet embrouillamini n'est rien comparé au paradoxe fondateur qui apparaît dans l'épisode final de Star Trek, Nouvelle génération, lorsque Picard déclenche une série d'événements qui auront des répercussions dans le passé, et finiront par détruire non seulement ses ancêtres, mais même toute forme de vie sur Terre! En d'autres termes, une « distorsion temporelle subspatiale », faisant intervenir « l'anti-temps », se développe chronologiquement à rebours, et élimine finalement les protoplasmes d'acide aminé présents aux origines du monde, avant même que les protéines primaires - la toute première forme de vie - aient eu le temps de se former. C'est bien là le cas le plus extrême d'un effet produisant une cause ! Cette distorsion temporelle est apparemment née dans l'avenir: si, trouvant des répercussions dans un lointain passé, elle a pu détruire les premières formes de vie sur Terre, alors aucune vie terrestre n'a pu se développer, et aucune civilisation susceptible de provoquer ladite perturbation n'a pu voir le jour!
La résolution classique de ces paradoxes consiste, du moins aux yeux de nombreux physiciens, à dire que de telles hypothèses sont infondées dans un monde rationnel tel que le nôtre. Cependant, et cela n'est pas pour clarifier les choses, les équations de la relativité générale élaborées par Einstein non seulement n'invalident pas, mais encore appuient ces hypothèses.
Environ trente ans après l'élaboration de ces équations, les conditions du voyage dans le temps furent énoncées par le célèbre mathématicien Kurt Gëdel, collègue d'Einstein à l'Institute for Advance Study de Princeton. Pour parler comme dans Star Trek, cette solution permettait de créer une « spirale de causalité temporelle» semblable à celle dans laquelle l'Entreprise est engloutie après sa collision avec le Bozeman. La terminologie plus aride de la physique moderne parle d'une « courbe temporelle fermée». Dans les deux cas, l'idée est la même : il est possible de voyager dans le temps, et de revenir à son point de départ, dans l'espace et dans le temps! La solution de Gëdel présuppose un univers qui, contrairement à celui dans lequel nous vivons, n'est pas en expansion, mais en rotation uniforme sur lui-même. Dans un tel univers, il suffit, pour remonter le temps, de décrire un vaste parcours circulaire dans l'espace. S'il est vrai que cet univers hypothétique est radicalement différent du nôtre, du moins le simple fait que cette solution existe indique clairement que voyager dans le temps est possible dans le contexte de la relativité générale.
Il y a, à propos de l'univers, une formule que je répète régulièrement à mes étudiants : ce que le discours scientifique n'exclut pas absolument se produira à coup sûr. Ou, pour citer Data dans l'épisode «Parallèles», à propos des lois de la mécanique quantique : « Tout ce qui est susceptible de se produire se produit.» C'est dans cet esprit, me semble-t-il, qu'il faut aborder la physique de Star Trek. Ce qui compte, ce n'est pas la distinction entre ce qui appartient effectivement au champ de l'expérience et ce qui n'y appartient pas, mais entre ce qui est possible et ce qui ne l'est pas.
Einstein en était bien conscient lorsqu'il écrivait : « [La solution de la machine à explorer le temps de] Kurt Gôdel [ soulève] le problème [qui] me perturbait déjà à l'époque où j'échafaudais la théorie générale de la relativité, problème que je n'ai jamais réussi à élucider ... Il sera intéressant de voir si ces [solutions] doivent être ou non exclues du domaine de la physique.»
Depuis lors, les physiciens ont dû relever ce défi: existe-t-il des « fondements de la physique» qui excluent définitivement la possibilité d'un voyage dans le temps, suggérée par les équations de la relativité générale? L'examen de cette question nous amènera à voyager au-delà de l'univers classique de la relativité générale, et à pénétrer les régions obscures de la mécanique quantique, où s'altère même la nature de l'espace et du temps. Sur notre route nous croiserons, à l'instar de l'Entreprise, des trous noirs et des mini-trous noirs. Pour commencer, remontons le temps, et gagnons la seconde moitié du XIXe siècle.

Les noces de l'espace et du temps, qui annonçaient les temps modernes, commencèrent avec celles de l'électricité et du magnétisme en 1864. Cette conquête intellectuelle de première importance, fondée sur les efforts conjugués de grands physiciens tels André-Marie Ampère, Charles-Augustin de Coulomb et Michael Faraday, atteint son sommet avec le remarquable physicien James Clerk Maxwell. Celui-ci découvrit que les lois de l'électricité et celles du magnétisme non seulement s'avéraient intimement liées, mais, une fois réunies, impliquaient l'existence d'« ondes électromagnétiques» capables de traverser l'espace à une vitesse que l'on pouvait calculer en se basant sur les propriétés déjà connues de l'électricité et du magnétisme. Cette vitesse se révéla équivalente à celle de la lumière, mesurée antérieurement.
Or l'on s'interrogeait depuis l'époque de Newton pour savoir si la lumière était une onde - c'est-à-dire une vibration propagée sur un support -, ou une particule se déplaçant sans nul support. Les études de Maxwell, selon lesquelles les ondes électromagnétiques existaient bel et bien et se propageaient à une vitesse égale à celle de la lumière, mirent fin au débat : la lumière était une onde électromagnétique.
Une onde n'est rien d'autre qu'une vibration propagée. Si la lumière est une vibration électromagnétique, quel est donc ce support qui se voit perturbé par le trajet de l'onde? Cette question fut, à la fin du xrx- siècle, le point majeur des investigations scientifiques. Le milieu en question avait reçu un nom sous l'ère d'Aristote: l'éther. Jusque-là, personne n'avait essayé directement de l'analyser. En 1887, toutefois, Albert A. Michelson et Edward Morley - qui menaient leurs recherches au sein des institutions qui formèrent en 1967 l'établissement où je travaille aujourd'hui, la Case Western Reserve University - se livrèrent à une expérience qui devait leur faire découvrir non seulement la nature de l'éther, mais aussi ses effets. Puisque l'éther était censé remplir l'espace tout entier, logiquement la Terre se mouvait dans l'éther. En faisant voyager de la lumière en diverses directions, compte tenu de la progression de la Terre dans l'éther, on pouvait calculer les variations de cette vitesse. Depuis, on a reconnu que cette expérience comptait parmi les plus importantes du siècle passé, bien que Michelson et Morley n'aient jamais réussi à obtenir les résultats escomptés. En fait, c'est bien parce qu'ils n'ont pas réussi à détecter l'effet du mouvement de la Terre dans l'éther que leurs noms ne sont pas tombés dans l'oubli. (A. A. Michelson devint par la suite le premier lauréat américain du Nobel de physique, grâce à ses investigations expérimentales sur la vitesse de la lumière, et je me sens honoré d'avoir aujourd'hui le poste qu'il occupait il y a plus d'un siècle. Edward Morley devint un chimiste réputé qui réussit à calculer, entre autres, la masse atomique de l'hélium.)
La non-découverte de l'éther connut bien quelque écho dans la communauté des physiciens, mais, comme c'est souvent le cas des découvertes manquées, ses conséquences ne furent véritablement appréciées que par quelques individus qui avaient déjà commencé à examiner divers paradoxes liés à la théorie de l'électromagnétisme. À cette époque, un jeune étudiant en physique - âgé de huit ans à l'époque des investigations de Michelson et de Morley - se mit, en cavalier seul, à confronter ces paradoxes. À vingt-six ans, en 1905, Albert Einstein avait résolu le problème. Mais, comme souvent lorsque de grands progrès sont accomplis en physique, les résultats d'Einstein suscitèrent plus de questions qu'ils n'apportèrent de réponses.
La solution d'Einstein, qui était au cœur de sa théorie de la relativité, était fondée sur un fait simple, mais apparemment impossible: la théorie de Maxwell sur l'électromagnétisme ne tenait debout que si la vitesse observée ne dépendait pas de la vitesse de l'observateur. Voilà qui défiait le sens commun. Si l'Entreprise envoie une sonde alors qu'elle se déplace à vitesse de propulsion, quelqu'un regardant depuis une planète située en dessous verra la sonde filer à travers l'espace à une vitesse bien plus grande qu'il ne· semblera à un membre de l'Entreprise l'observant depuis un hublot. Mais Einstein découvrit que la théorie de Maxwell demeurait logique si et seulement si les ondes-lumière se comportaient autrement: à savoir, si leur vitesse, telle que pourraient la mesurer les deux observateurs, demeurait la même, indépendamment de la vitesse relative des observateurs. Ainsi, si j'émets un rayon de phaseur depuis le pont avant de l'Entreprise, et que celui-ci se dirige vers le pont avant d'un vaisseau romulien à une vitesse de propulsion équivalant à 75 % de la vitesse-lumière, mes ennemis croiront voir le rayon foncer sur eux précisément à la vitesse de la lumière, et non à 75 % de cette vitesse. Ce genre d'illusion a interloqué certains adeptes de Star Trek : ils se figurent que, si l'Entreprise se dirige à une vitesse proche de la vitesse-lumière et qu'un autre vaisseau se dirige dans la direction opposée à une vitesse proche de la vitesse-lumière, les phares de l'Entreprise ne parviendront pas à rattraper l'autre vaisseau, et que l'Entreprise lui demeurera invisible. À l'inverse, l'équipage du· second navire verra les feux de l'Entreprise se rapprocher à la vitesse de la lumière.
Einstein ne doit pas sa popularité à cette seule découverte. Le plus important, c'est qu'il a voulu explorer les implications de cette découverte - qui peuvent paraître absurdes à première vue. Dans notre expérience de tous les jours, le temps et l'espace sont des données absolues, et la vitesse est une donnée relative. La vitesse de déplacement d'un objet est perçue différemment selon la vitesse de déplacement de l'observateur. Mais, lorsqu'il s'agit de vitesse-lumière, c'est la vitesse qui devient une quantité absolue, et dès lors le temps et l'espace ne peuvent que devenir relatifs!
Cela vient du fait que la vitesse se définit littéralement comme la distance parcourue en un temps donné. Dès lors, plusieurs observateurs en mouvement relatif ne peuvent mesurer un rayon de lumière parcourant une même distance par rapport à chacun d'eux - disons, 300 millions de mètres - en, disons, une seconde que si chacune de leurs « secondes » et chacun de leurs «mètres» sont différents! Nous voyons donc que dans la relativité restreinte tout peut arriver: mètres et secondes deviennent des quantités relatives.
En se basant sur le simple fait que la vitesse de la lumière est la même pour tous les observateurs, quel que soit leur mouvement relatif, Einstein obtient, quant à l'espace, le temps et la matière, quatre axiomes enchaînés :

a) Des événements qui, aux yeux d'un observateur, se produisent au même moment mais à deux endroits distincts n'apparaîtront pas forcément comme simultanés aux yeux d'un second observateur qui se déplace par rapport au premier. Le «présent» de chaque personne est unique en fonction de cette personne. «Avant» et « après» sont des notions relatives en ce qui concerne des événements ayant lieu à distance.
b) Toutes les horloges des vaisseaux: spatiaux: dont j'observe les déplacements relatifs me paraîtront aller plus lentement que la mienne. Le temps, tel qu'on le calcule, ralentit quand l'objet se déplace.
c) Les étalons embarqués à bord des vaisseaux: spatiaux: en mouvement me paraîtront de taille plus courte que s'ils étaient immobiles dans mon champ de vision. Les objets, y compris les vaisseaux spatiaux, paraissent se rétracter lorsqu'ils sont en mouvement.
d) Tout objet ayant une masse devient plus lourd lorsqu'il se déplace. Lorsqu'il se rapproche de la vitesse-lumière, il devient infiniment pesant. C'est pourquoi seuls des objets dépourvus de toute masse, comme la lumière, parviennent à voyager à vitesse-lumière.

Ce n'est pas ici le lieu de passer en revue tous les merveilleux: paradoxes apparents que la relativité a introduits dans le monde. Qu'il nous suffise de dire que tous ces axiomes sont véridiques, que cela nous plaise ou non : autrement dit, ils ont été expérimentés. Des horloges atomiques ont été embarquées dans l'espace, à bord d'avions à grande vitesse, et on a observé au retour qu'elles retardaient sur celles qui n'avaient pas quitté la Terre. Dans des laboratoires de physique des hautes énergies, partout dans le monde, les expériences menées sur les conséquences de cette théorie particulière de la relativité font le pain quotidien des chercheurs. On fait ainsi se déplacer des particules élémentaires instables à une vitesse proche de celle de la lumière, et les calculs montrent que leur durée de vie en est accrue dans d'immenses proportions. Lorsque des électrons, qui, au repos, sont d'une masse 2 000 fois inférieure à celle des protons, subissent une accélération qui les rapproche de la vitesse-lumière, les calculs montrent qu'ils acquièrent une impulsion équivalant à celle de leurs parents plus lourds. De fait, un électron subissant une accélération de 99 999 999 999 999 999 999 999 999 999 999 999 999 999 999 999 999 999 999 999 999 fois la vitesse de la lumière, s'il entrait en collision avec vous, produirait le même impact qu'un semi remorque se déplaçant à sa vitesse habituelle.
Bien sûr, si toutes ces implications liées à la relativité du temps et de l'espace sont si difficiles à admettre, c'est aussi parce que nous-mêmes nous vivons et nous déplaçons à des vitesses bien inférieures à celle de la lumière. Chacun des effets notés ci-dessus n'apparaît véritablement que lorsque l'observateur se déplace à des vitesses «relativistes». Par exemple, même à une vitesse égale à la moitié de la vitesse lumière, les horloges ne retarderaient et les étalons ne rétréciraient que d'environ 15 %. Sur la navette spatiale de la NASA, qui tourne autour de la Terre à une vitesse d'environ 8 km/s, les horloges ne fonctionnent qu'environ 1/10 000 000 % plus lentement que les horloges terrestres.
Cependant, dans le monde à grande vitesse qui définit l'Entreprise, ou tout autre vaisseau spatial, on se heurte tous les jours aux problèmes de la relativité - ce qui ne va pas sans poser quelques problèmes d'organisation à la Flotte interstellaire. Il faut, par exemple, synchroniser les horloges sur toute une partie de la galaxie, sachant que bon nombre de ces horloges se déplacent à une vitesse proche de celle de la lumière. D'où la règle instituée, qui veut que les déplacements ordinaires des vaisseaux spatiaux soient limités à une vitesse de 0,25 c (soit 1/4 de la vitesse-lumière, ou 75 000 km/s).
Et même en appliquant cette règle, les horloges des navires qui se déplacent à cette vitesse subiront un retard d'environ 3 % par rapport à celles stationnées au QG de la Flotte. Ce qui signifie que, au bout d'un mois, les horloges auront pris un retard d'environ un jour. Au retour d'un tel voyage, les horloges de l'Entreprise indiqueraient vendredi au lieu de samedi. Le problème ne semble pas beaucoup plus complexe que celui qui se pose à nous lorsque nous voyageons vers l'est et devons mettre notre montre à l'heure après le passage du fuseau horaire international - mais, dans le cas qui nous intéresse, l'équipage de !'Entreprise serait véritablement plus jeune d'un jour après cet aller-retour que S'il était resté au QG, tandis que nous gagnons un jour à l'aller, mais le reperdons au retour.
L'on comprend mieux, alors, quel gain précieux la vitesse de distorsion représente pour l'Entreprise. Elle a été conçue non seulement pour éviter d'atteindre la vitesse-lumière - puisque celle-ci représente l'ultime limite - et rendre ainsi possibles les voyages à travers la galaxie, mais aussi pour éviter les problèmes de décalage temporel résultant d'un déplacement à une vitesse proche de celle de la lumière.
Je ne puis qu'insister sur l'importance de ces faits. Le retard pris par les horloges lorsqu'on se rapproche de la vitesselumière a incité les auteurs de science-fiction (et tous ceux qui ont rêvé de voyager jusque dans les étoiles) à penser qu'une vie humaine - ou plus exactement la vie des personnes embarquées à bord d'un vaisseau spatial - pourrait suffire à traverser l'immensité des plaines. À une vitesse proche de celle de la lumière, il faudrait, pour gagner le centre de notre galaxie, plus de 25 000 ans de notre temps terrestre. Pour l'équipage de l'astronef, en se déplaçant à une vitesse suffisamment proche de celle de la lumière, ce voyage pourrait prendre moins de dix ans. Cela reste long, mais devient possible. Néanmoins, si ce fait permet les explorations individuelles, il rend impossible le contrôle d'une fédération de civilisations éparpillées dans l'ensemble de la galaxie. Comme les auteurs de la série Star Trek l'ont bien vu, un voyage qui prendrait dix ans à !'Entreprise, tandis que 25 000 ans s'écouleraient au QG, rendrait irréalisable toute opération visant à contrôler les mouvements des multiples vaisseaux. Aussi est-il essentiel: a) que la vitesse-lumière soit évitée, afin de ne pas désynchroniser la Fédération; b) de mettre en place une vitesse qui soit supérieure à celle de la lumière afin de faciliter les déplacements dans la galaxie.
L'ennuyeux est que, dans le contexte de la relativité restreinte, la seconde condition ne peut être réalisée. De multiples impossibilités se font jour si l'on autorise la création d'une super-vitesse-lumière. Ainsi, puisque les objets se font plus lourds à mesure qu'ils se rapprochent de la vitesse lumière, il faudra de plus en plus d'énergie pour une accélération toujours moindre. Comme dans le mythe du héros grec Sisyphe, qui fut condamné à pousser un rocher le long d'une pente pour l'éternité, et à toujours le voir dévaler avant d'avoir atteint le sommet, toute l'énergie présente dans l'univers ne suffirait pas à faire franchir cette ultime limite de la vitesse à un grain de poussière - moins encore à un vaisseau spatial.
Dans la même perspective, ce n'est pas seulement la lumière, mais encore toutes les radiations dépourvues de masse qui voyagent à la vitesse dite lumière. Ce qui signifie que de nombreux personnages qui sont «pure énergie», rencontrés par l'Entreprise et plus tard par le Voyageur, ne devraient logiquement pas exister, contrairement à ce que nous montre la série. Et d'abord, ils ne devraient pas pouvoir rester tranquillement assis : on ne saurait ralentir le cours de la lumière, et encore moins l'immobiliser en un espace donné. Ensuite, tout être énergétique doué d'intelligence (par exemple les êtres «photoniques» qu'on voit apparaître dans la série intitulée Le Voyageur, ceux du nuage Beta Renna dans La nouvelle génération, les Zétariens dans la série originelle, et enfin le Dal'Rok dans Profondeur Espace 9), dès lors qu'il serait contraint de voyager à la vitesse de la lumière, serait équipé d'horloges fonctionnant infiniment plus lentement que les nôtres. L'histoire de l'univers leur paraîtrait se dérouler en un seul instant. À supposer que ces êtres énergétiques puissent faire l'expérience de quelque chose, ils feraient l'expérience de toute chose en un seul moment! Inutile de dire que, avant qu'ils ne puissent établir un contact avec des êtres corporels, ces derniers seraient morts depuis belle lurette.
Toujours à propos du temps,je crois qu'il est grand temps de vous présenter la manœuvre Picard. Jean-Luc a accédé à la célébrité en adoptant cette stratégie à bord du Stargazer. Bien qu'elle oblige à voyager en vitesse de distorsion, ou en supervitesse-lumière, elle ne le fait qu'un bref instant, et convient très bien à notre analyse. La manœuvre Picard, destinée à confondre un vaisseau ennemi qui attaque, veut que le vaisseau attaqué accélère jusqu'à vitesse de distorsion un court moment : il paraît alors se trouver à deux endroits en même temps. En effet, en voyageant plus vite que la vitesse-lumière pour un très court instant, il dépasse les rayons de lumière qu'il a émis juste avant de passer en vitesse de distorsion. La stratégie est rien moins que brillante et, apparemment, cohérente dans sa présentation (en supposant que l'on soit capable d'atteindre la vitesse de distorsion). Vous pouvez, je crois, vous apercevoir facilement qu'il s'agit également d'une véritable boîte de Pandore.
Pour commencer, cette stratégie pose une question que des milliers de fans ont déjà soulevée: comment l'équipage de l'Entreprise peut-il «voir» les objets qui approchent lorsqu'ils se déplacent en vitesse de distorsion? De même que le Stargazer dépasse sa propre image, tout objet se déplaçant à vitesse de distorsion doit faire de même ; par conséquent on ne peut voir un tel objet que lorsqu'il atteint son point d'arrivée. Il faut donc supposer que lorsque Kirk, Picard ou Janeway ordonnent de fixer un objet sur l'écran de contrôle, le résultat est une image reconstituée par une sorte de capteur subspatial à longue distance (à savoir, capable de communiquer des impressions en super-vitesse-lumière). Même en passant outre cette imprécision dans le scénario, l'univers de Star Trek devient un univers aussi intéressant que dangereux à parcourir, peuplé d'images fantômes d'objets arrivés depuis longtemps à leur destination en voyageant à vitesse de distorsion.

Revenons au monde de l'infra-vitesse-lumière: nous n'en avons pas encore fini avec Einstein. Sa fameuse équation mettant en rapport masse et énergie, E = mc2, qui résulte de la relativité restreinte, pose un nouveau défi à qui voudrait voyager dans l'espace à vitesse de propulsion. Comme je l'ai décrit au chapitre 1, le principe du réacteur est de réaliser une poussée vers l'arrière pour provoquer une propulsion vers l'avant. Plus la poussée arrière sera importante, plus la propulsion créée par le réacteur sera forte. La poussée arrière ne peut excéder la vitesse-lumière. Même à la vitesse-lumière, cela ne va pas de soi: il faut, pour y parvenir, un carburant composé de matière et d'antimatière, qui, en s'annihilant entièrement comme je le décrirai dans le chapitre suivant, pourrait ne produire qu'une pure radiation voyageant à vitesse-lumière.
Toutefois, si la vitesse de distorsion à bord de I'Entreprise consomme un carburant de cette fabrication, il n'en va pas de même pour la vitesse de propulsion. Celle-ci puise son énergie dans la fusion nucléaire, cette même réaction nucléaire qui nourrit le soleil en transformant l'hydrogène en hélium. Dans les réactions de fusion, environ 1 % de la masse disponible est transformée en énergie. Avec cette énergie disponible, les atomes d'hélium produits seront projetés à l'arrière du réacteur à une vitesse d'environ un huitième de la vitesse-lumière. En nous basant sur cette vitesse ultime, nous pouvons calculer combien de carburant sera nécessaire à l'Entreprise pour accélérer jusqu'à, mettons, la moitié de la vitesse-lumière. C'est une opération qui ne pose pas de problème, mais je passerai directement aux résultats, qui pourront vous surprendre. Chaque fois que l'Entreprise accélère jusqu'à la moitié de la vitesse-lumière, il lui faut consommer 81 fois sa masse totale en carburant à base d'hydrogène. Si l'on suppose qu'un vaisseau spatial galactique tel que l'Entreprise-D de Picard pèse environ 4 millions de tonnes métriques, cela signifie qu'il lui faudra environ 300 millions de tonnes métriques de carburant toutes les fois qu'on aura recours à l'impulseur pour atteindre la moitié de la vitesse-lumière! Si l'on utilise un système de propulsion reposant sur l'alliage matière-antimatière, il suffira de consommer deux fois la masse totale de l' Entreprise pour atteindre une telle accélération.
En fait, les choses vont en empirant, car les calculs décrits ci-dessus ne valent que pour une accélération unique. Pour freiner et immobiliser le vaisseau, une fois le but atteint, il faut à nouveau multiplier par 81 sa masse en carburant. Ce qui signifie que, simplement pour se rendre quelque part et s'y arrêter, le vaisseau devra consommer une somme de carburant équivalant à 81 x 81 fois= 6561 sa masse totale! De plus, imaginons que l'on veuille atteindre la moitié de la vitesse-lumière en quelques heures (bien sûr, les amortisseurs inertiels sont en bon état de fonctionnement et préservent vaisseau et équipage des terribles effets de la force G): la force émanant des réacteurs serait alors d'environ 1022 watts - à savoir un milliard de fois la somme totale d'énergie produite et consommée en ce moment par l'ensemble des humains sur la Terre!
Certes, on peut toujours suggérer une échappatoire ( comme l'a fait un brillant collègue lorsque je lui ai exposé le problème l'autre jour). La difficulté tient à ce qu'il faut nécessairement transporter le carburant à bord du navire. Et si on le stockait au fur et à mesure du voyage? Après tout, l'hydrogène est l'élément le plus abondant dans l'univers. Ne pouvons-nous l'amasser tout en progressant dans la galaxie? Mais voilà : la densité matérielle moyenne dans notre galaxie est d'environ un atome d'hydrogène par centimètre cube. Pour amasser ne serait-ce qu'un gramme d'hydrogène par seconde, même en se déplaçant à une bonne proportion de la vitesse-lumière, il faudrait donc déployer des panneaux accumulateurs d'environ 40 kilomètres de diamètre. Et une fois transformée en énergie propulsionnelle, la récolte ne fournirait qu'environ un cent-millionième de l'énergie souhaitée!
Pour paraphraser Edward Purcell, prix Nobel de physique, dont j'ai repris et développé ici les arguments: si tout cela vous paraît absurde, vous avez raison. L'absurdité même de ces raisonnements découle des lois élémentaires de la mécanique classique et de la relativité restreinte. Les données ici présentées sont aussi indépassables que le fait qu'un ballon lâché au-dessus du sol terrestre ne pourra que tomber. Les voyages galactiques à bord de vaisseaux propulsés par réacteurs sont impossibles pour des raisons de physique, et le seront toujours!
Me faut-il alors conclure ici? Nous faut-il renvoyer nos souvenirs de Star Trek, et demander à être remboursés? Non, car nous n'en avons pas fini avec Einstein. Sa découverte ultime, peut-être la plus importante de toutes, laisse entrevoir un mince espoir.

Faisons un rapide retour en 1908 : la découverte par Einstein de la relativité du temps et de l'espace précède l'une de ces expériences époustouflantes qui, de temps à autre, viennent modifier du tout au tout notre idée de l'univers. C'est à l'automne 1908 que le physicien et mathématicien Hermann Minkowski écrivit ces mots célèbres: «Dorénavant, l'espace en soi et le temps en soi sont des notions destinées à disparaître, et seule une forme d'union entre les deux pourra préserver une réalité indépendante. »
Ce que Minkowski a réalisé, c'est que, même si l'espace et le temps sont relatifs aux yeux d'observateurs en mouvement relatif (votre horloge marche plus lentement que la mienne, les distances nous apparaissent sous des angles différents), dès lors que l'espace et le temps sont confondus, contribuant à établir un univers à quatre dimensions (les trois dimensions de l'espace plus le temps), une réalité objective «absolue» refait son apparition.
Pour expliciter cette intuition de Minkowski, imaginons un monde dont tous les habitants posséderaient une vision monoculaire, et seraient donc incapables de percevoir directement la profondeur. Si vous fermez un œil, de façon à réduire votre perception de la profondeur, et que je vous présente une règle tout en demandant à quelqu'un, qui observe cette règle sous un autre angle, de fermer également un œil, la règle en question paraîtra d'une longueur différente aux deux observateurs, comme le montre le dessin ci-dessous .


Chacun des deux observateurs, dans ce schéma, est incapable de discerner directement la profondeur : il donnera le nom de «longueur» (Lou L') à la projection bidimensionnelle de la véritable règle ( elle-même objet tridimensionnel) sur son champ de vision. Parce que nous savons que l'espace a bel et bien trois dimensions, nous ne nous laissons pas abuser par cette illusion. Nous savons que, lorsque nous regardons un objet un angle différent, cela ne modifie que sa longueur apparente et non sa longueur réelle. Minkowski montre que la même idée peut éclairer les divers paradoxes de la relativité. Il nous faut maintenant supposer que notre perception de l'espace ne prend en compte que les trois quarts d'un objet qui a véritablement quatre dimensions, dans lequel le temps et l'espace se confondent. Deux observateurs en mouvement relatif perçoivent des réalités tridimensionnelles différentes, issues d'un espace quadridimensionnel, de même que les deux observateurs tournants de l'illustration voient des réalités bidimensionnelles différentes, relevant d'un espace tridimensionnel.
Minkowski a imaginé que la distance spatiale telle que la mesurent deux observateurs en mouvement relatif n'est autre que la projection d'une distance spatio-temporelle à quatre dimensions sur l'espace tridimensionnel qu'ils peuvent percevoir; de même, la « distance» temporelle qui sépare deux événements est une projection de la distance spatiotemporelle à quatre dimensions sur la chronologie particulière des observateurs. De même que, en faisant tourner un objet tridimensionnel, on altère la perception de sa longueur et de sa largeur, de même la relativité propre à l'espace quadridimensionnel peut confondre les notions d'espace et de temps dans l'esprit des différents observateurs. Enfin, de même que la longueur véritable d'un objet ne change pas lorsque nous le faisons tourner dans l'espace, la distance spatiotemporelle qui sépare deux événements reste absolue, quelles que puissent être les distances spatiales ou temporelles relatives calculées par les différents observateurs.
Ainsi, la constance incroyable de la vitesse de la lumière pour tous les observateurs suggère une clef pour décoder la véritable nature de l'univers quadridimensionnel de l'espace-temps dans lequel nous vivons. La lumière révèle le lien caché entre l'espace et le temps. Notamment, c'est la vitesse de la lumière qui définit cette connexion.
Voilà en quoi Einstein sauve l'univers de Star Trek. Une fois que Minkowski eut montré que l'espace-temps dans la relativité restreinte est comme une feuille de papier quadridimensionnelle, Einstein passa l'essentiel des dix années suivantes à entraîner ses muscles mathématiques jusqu'à ce qu'il soit capable de plier cette feuille, ce qui lui a permis d'assouplir les règles du jeu. Comme vous pouvez vous en douter, c'est encore la lumière qui devait fournir la solution.

3 - Hawking abat ses cartes

«Vous autres mortels n'entendez rien au temps.
Vous faut-il être si linéaire, Jean-Luc ?»
Q à Picard, dans l'épisode «Les meilleures choses ... »

La planète Vulcain, patrie de Spock, occupe une place honorable dans les archives de la physique du xx= siècle. L'une des choses qui posait problème au début de notre siècle, c'était le fait que l'axe du périhélie de Mercure (le point de son orbite où la distance par rapport au Soleil est la plus courte) subissait chaque année mercurienne une précession en contradiction avec la loi de la gravitation établie par Newton. On suggéra alors l'existence d'une planète nouvelle à l'intérieur de l'orbite de Mercure, planète dont les perturbations fourniraient une réponse au problème. (De fait, en appliquant cette solution à l'orbite d'Uranus, qui manifestait une anomalie, on avait abouti à la découverte de la planète Neptune.) On donna à l'hypothétique planète le nom de Vulcain.
Hélas ! la mystérieuse planète Vulcain ne se situe pas là.
Einstein suggéra comme autre solution qu'il fallait abandonner l'espace plan de Newton et de Minkowski pour recourir à la courbe spatio-temporelle de la relativité générale. Dans cet espace courbe, l'orbite de Mercure déviait quelque peu de celui calculé par Newton, d'où le décalage observé. Cette hypothèse, si elle mettait fin à la planète Vulcain, introduisait des possibilités bien plus intéressantes. À la suite de l'espace courbe, on trouve les trous noirs, les mini-trous noirs, et peut-être même la vitesse de distorsion et les voyages dans le temps.
De fait, bien avant que les auteurs de Star Trek aient inventé les champs de distorsion, Einstein lui-même avait distordu l'espace-temps - tout comme eux, par le seul recours à son imagination. Au lieu de concevoir la technologie propre aux vaisseaux spatiaux du XXII siècle, Einstein se représenta un ascenseur. C'était indubitablement un grand physicien, mais il n'aurait sans doute jamais réussi à vendre un scénario.
Ses démonstrations gardent néanmoins toute leur valeur lorsqu'on les replace à bord de l'Entreprise. Parce que la lumière est ce fil qui tisse ensemble l'espace et le temps, la trajectoire des rayons de lumière nous offre une carte de l'espace-temps aussi nette que lorsque les fils croisés d'une trame donnent à voir le dessin d'une tapisserie. La lumière voyage généralement en ligne droite. Mais que se passera-t-il si un commandant de bord romulien, à bord d'un Rapace proche, tire un rayon de phaseur sur Picard alors que celui-ci est sur la passerelle du vaisseau pilote, le Calypso, et qu'il vient juste d'enclencher la vitesse de distorsion ( et là, pour une fois, nous supposons que les amortisseurs inertiels sont en position de repos)? Picard subirait une accélération vers l'avant et n'éviterait que de peu l'impact de la rafale de phaseur. Du point de vue de Picard, les choses se passeraient comme sur le schéma suivant.
Le trajectoire du rayon de phaseur paraîtrait courbe à Picard. Que percevrait-il encore? Eh bien, comme l'expose la démonstration du premier chapitre, aussi longtemps que les amortisseurs inertiels ne seraient pas connectés, il serait rejeté dans son siège. Je note également que, si Picard subissait une accélération vers l'avant similaire aux accélérations causées sur Terre par la gravité, il ressentirait la même force de projection en direction de son siège que sur Terre. C'est bien ce que montre Einstein : Picard ( ou tout individu se trouvant dans un ascenseur qui monte) ne saurait d'aucune manière trouver de différence entre la force de réaction émanant de l'accélération et la poussée gravitationnelle émise par quelque objet pesant situé à proximité du vaisseau. Cela permit à Einstein d'aller plus loin, là où nul physicien ne l'avait précédé: il prouva qu'un phénomène ressenti par un observateur en état d'accélération était identique à celui ressenti par un observateur soumis à la loi de gravitation.


Notre exemple a ceci pour conséquence: puisque Picard observe que le rayon de phaseur a une trajectoire courbe lorsqu'il s'en éloigne par l'effet de l'accélération, alors le rayon doit également être courbe dans un champ gravitationnel. Mais si les rayons de lumière donnent à voir la constitution de l'espace-temps, cela signifie que l'espace-temps doit nécessairement être courbe dans un champ gravitationnel. Enfin, puisque c'est la matière qui produit le champ gravitationnel, alors c'est nécessairement elle qui est responsable de la courbe de l'espace-temps!
Mais, dira-t-on, puisque la lumière contient de l'énergie, et que la masse et l'énergie sont mises en rapport dans la célèbre équation d'Einstein, le fait que la lumière se courbe dans un champ gravitationnel n'a rien de bien surprenant et n'implique pas nécessairement que l'espace-temps lui-même soit courbe. Après tout, les trajectoires suivies par la matière ne le sont pas moins (lancez une balle en l'air pour voir). Galilée aurait pu démontrer, si ces objets avaient existé de son temps, que les trajectoires des balles de base-ball et des missiles Pathfinder sont courbes, mais il n'aurait jamais eu l'idée d'un espace courbe.
Eh bien! il s'avère que l'on peut mesurer la courbe d'un rayon de soleil. Pour cela, il faut supposer que la lumière se déplace à la façon d'une balle de base-ball, et calculer le degré de courbure du rayon, comme le fit sir Arthur Stanley Eddington en 1919, dans l'expédition qu'il mena afin d'observer la position apparente des étoiles les plus proches du Soleil au cours d'une éclipse solaire. Faites-le, et vous remarquerez, comme Eddington, que la lumière est deux fois plus courbe que si elle suivait la trajectoire d'une balle de base-ball dans l'espace plan. Comme vous l'avez peut-être deviné, ce facteur de 2 est celui qui avait été prédit par Einstein, dans le cas où l'espace-temps serait bien courbé à proximité du Soleil, et dans le cas où la lumière ( ou la planète Mercure, en l'occurrence) se déplacerait suivant une ligne droite dans cet espace courbe! Du jour au lendemain, Einstein devint une célébrité.
L'espace courbe ouvre tout un univers de possibilités - que l'on me pardonne le jeu de mots. Nous voici libérés, tout comme l' Entreprise, des entraves de la pensée linéaire imposées par la relativité restreinte et que Q, pour sa part, semblait tellement abhorrer. On peut réaliser dans un univers courbe bien des choses impossibles dans l'espace plan. Par exemple, il devient possible, alors qu'on garde toujours le même cap, de se retrouver au point de départ : ceux qui font le tour du monde le constatent régulièrement.
Les postulats principaux de la relativité générale énoncés par Einstein sont faciles à résumer: la courbure de l'espacetemps est directement déterminée par la distribution de la matière et de l'énergie qu'ils contiennent. Les équations d'Einstein, de fait, ne font que traduire en termes mathématiques les relations entre, d'un côté, la courbure de l'espacetemps, et, de l'autre, la matière et l'énergie:

Du côté gauche = Du côté droit
[Courbure].............[Matière et énergie]

Ce qui rend la théorie si diablement difficile à utiliser comme outil de travail, c'est qu'elle fonctionne à la façon d'un cercle vicieux: la courbure de l'espace-temps est déterminée par la distribution de la matière et de l'énergie dans l'univers, mais cette distribution repose elle-même sur la courbure de l'espace. On retrouve la fameuse énigme de l'œuf et de la poule : qui a, le premier, produit l'autre? La matière se présente comme l'origine de la courbure, et celle-ci, à son tour, détermine l'évolution de la matière, évolution qui altère la courbure, etc.
Cette question est peut-être l'aspect le plus important de la relativité générale en ce qui concerne Star Trek. La complexité de cette théorie montre que nous n'avons pas encore pénétré toutes ses conséquences; dès lors, nous ne pouvons exclure diverses possibilités exotiques. Ce sont ces dernières qui apportent de l'eau au moulin de Star Trek. De fait, nous verrons qu'elles reposent toutes sur une inconnue, unique et essentielle, qui influence tout, des trous noirs et mini-trous noirs jusqu'aux machines à remonter le temps.
La première implication, reposant sur le fait que l'espacetemps n'est pas forcément plan, et qui est utile aux aventures de l' Entreprise, c'est que le temps lui-même devient une quantité plus dynamique encore que dans la relativité restreinte. Le temps peut s'écouler à des vitesses différentes selon les observateurs, même si ceux-ci ne sont pas en mouvement relatif. Essayez de concevoir les tic-tac d'une horloge comme des traits tracés à intervalles réguliers sur une règle en caoutchouc. Si j'étire ou plie cette règle, l'espace séparant les intervalles ne sera pas le même partout sur la règle. Si nous reprenons notre image, nous comprenons que des horloges situées à différents endroits peuvent décompter le temps à des vitesses différentes. Dans la relativité générale, seule la présence d'un champ gravitationnel peut plier la règle, impliquant à son tour la présence de matière.
Traduisons cela en termes plus pragmatiques : si je pose une lourde balle de fer près d'une horloge, la vitesse de fonctionnement de l'horloge en sera modifiée. Ou, pour user d'un exemple encore plus pratique, si je dors avec mon réveille matin enfoui près de la masse au repos de mon corps, je serai réveillé un peu plus tard que je ne le serais autrement.
Une célèbre expérience menée en 1960 dans les laboratoires de physique de l'université Harvard permit de démontrer que le temps peut dépendre de l'endroit où l'on se trouve. Robert Pound et George Rebka montrèrent que la fréquence de la radiation gamma, mesurée à sa source, dans les sous-sols du bâtiment, différait de la fréquence de la radiation lorsque celle-ci était captée 22 mètres plus haut, sur les toits des bâtiments (sachant que les détecteurs avaient été soigneusement calibrés afin de ne pas influencer les écarts observés). La différence se révéla incroyablement minime: d'environ un degré sur un milliard de millions. Si chaque cycle de l'onde de rayons gamma équivaut au tic-tac d'une horloge atomique, l'expérience implique qu'une horloge atomique placée au sous-sol paraîtra fonctionner plus lentement qu'une même horloge placée sur le toit. Le temps ralentit à l'étage le plus bas parce que celui-ci est plus proche de la terre que le toit, si bien que le champ gravitationnel et, par conséquent, la courbure de l'espace-temps y sont plus étendus. Si infime que fut cet effet, il confirme les prédictions de la relativité générale sur la courbure de l'espace-temps à proximité de la terre.
La seconde implication de l'espace courbe est peut-être plus intéressante encore dans la perspective des voyages dans le temps. Si l'espace est courbe, alors une ligne droite n'est pas forcément le plus court chemin entre deux points. En voici un exemple. Soit un cercle dessiné sur une feuille de papier. Normalement, la distance la plus courte entre deux points A et B, situés sur ce cercle et diamétralement opposés, se calcule en tirant une ligne qui les relie en passant par le centre du cercle :


Si, au lieu de cela, on faisait le tour du cercle pour parvenir de A à B, le voyage prendrait une fois et demie plus de temps. Maintenant, dessinons ce même cercle sur une feuille de caoutchouc, et exerçons une distorsion sur sa région centrale.
Dans ce nouveau contexte tridimensionnel, il est clair que si l'on veut atteindre B en partant de A, et en passant par le centre du cercle, on mettra beaucoup plus longtemps qu'en faisant simplement le tour du cercle. Notez que si nous prenions une photographie en plongée de cette figure, nous n'aurions plus qu'une perspective bidimensionnelle, si bien que la ligne reliant A à B via le centre nous apparaîtrait comme une droite. Il est plus intéressant de noter que si un minuscule insecte ( ou un être bidimensionnel, tels ceux que l' Entreprise rencontre parfois) suivait cette trajectoire de A à B via le centre, en rampant le long de la surface de la feuille de caoutchouc, sa trajectoire nous apparaîtrait également comme une ligne droite. L'insecte découvrirait à son grand étonnement que la ligne droite entre A et B passant par le centre n'est plus la distance la plus courte entre ces deux points. Si l'insecte était intelligent, il serait alors forcé de conclure que l'espace bidimensionnel dans lequel il vivait était courbe. Pour observer plus directement cette courbure, il nous faudra d'abord porter notre attention sur la façon dont la feuille de caoutchouc s'intègre dans un espace tridimensionnel.

À présent, rappelez-vous que nous vivons dans un espacetemps à quatre dimensions qui peut être courbe, et que nous ne percevons pas plus la courbure de cet espace de façon directe que l'insecte rampant le long de la feuille ne peut détecter sa courbure. Vous voyez sûrement où je veux en venir: si, dans l'espace courbe, la distance la plus courte entre deux points n'est pas nécessairement une ligne droite, alors il devient possible de traverser ce qui peut nous apparaître comme une distance considérable en trouvant un chemin plus court à travers l'espace-temps courbé.
Les propriétés que je viens de décrire tissent l'étoffe des rêves de Star Trek. Reste une question essentielle : sur ces rêves, combien pourront se réaliser un jour?

Les mini-trous noirs : imagination et réalité

Le mini-trou noir de Bajora dans Profondeur Espace 9 demeure peut-être le mini-trou noir le plus célèbre de Star Trek, bien qu'il y en ait eu beaucoup d'autres: celui, fort dangereux, que Scotty pourrait créer en altérant l'équilibre entre matière et antimatière dans le distordeur; l'instable mini-trou noir barzien où se perd un vaisseau Ferengi dans l'épisode de la Nouvelle génération intitulé «Le prix»; et celui que le Voyageur rencontre alors qu'il s'efforce de regagner sa base depuis les confins de la galaxie.
L'idée qui se trouve à l'origine des mini-trous noirs est celle que je viens de décrire. Si l'espace-temps est courbe, alors il y a peut-être différentes façons de relier deux points de sorte que la distance entre eux soit beaucoup plus réduite que celle que l'on mesurerait en traçant une « ligne droite» à travers l'espace courbe. Parce que les phénomènes de l'espace courbe quadridimensionnel sont impossibles à visualiser, il nous faut recourir une fois de plus à une feuille de caoutchouc bidimensionnelle, dont nous pouvons observer la courbure en lui faisant intégrer l'espace tridimensionnel.
Si cette feuille est courbée à grande échelle, nous pouvons nous figurer qu'elle ressemble à ceci :


Il est évident que, si nous pointions un crayon sur le point situé en A en étirant le caoutchouc jusqu'à ce que la pointe du crayon touche le point B, et que nous cousions ensemble les deux pans de la feuille, nous aurions ceci :

Et nous créerions par la même occasion un chemin de A à B qui serait beaucoup plus court que le chemin parcourant la feuille d'un point à l'autre. Notez également que la feuille semble être plane dans la région du point A et dans celle du point B. La courbure qui relie ces deux points de façon à permettre de les joindre en un tunnel est due à la courbure générale adoptée à grande échelle par la feuille. Un petit insecte situé en A, fût-il intelligent, et qui ne pourrait que ramper sur la feuille, n'aurait aucune idée que B fût si «proche», même s'il réussissait à faire quelques expériences locales autour de A pour rechercher une éventuelle courbure de la feuille.
Comme vous l'avez sans doute supposé, le tunnel qui relie A et B sur le schéma est l'équivalent bidimensionnel d'un minitrou noir qui pourrait, en principe, relier des régions éloignées de l'espace-temps. Si excitante que soit cette hypothèse, je n'en dois pas moins attirer votre attention sur certains aspects trompeurs de ce schéma. Tout d'abord, même si nous avons intégré la feuille de caoutchouc dans un espace tridimensionnel pour vous montrer la courbure de la feuille, cette feuille courbe n'a pas besoin d'un contexte spatial tridimensionnel pour exister. Un mini-trou noir peut bien exister, qui relie A à B; mais, s'il n'existe pas, on ne peut en aucune façon dire que A et B sont «proches» l'un de l'autre. Ce n'est pas comme si nous avions toute liberté de quitter la feuille de caoutchouc et de gagner B depuis A à travers l'espace tridimensionnel dans lequel la feuille est intégrée. S'il n'y a pas d'espace tridimensionnel, c'est la feuille de caoutchouc qui constitue l'univers tout entier.
Ainsi donc, imaginez que vous fassiez partie d'une civilisation hyper-évoluée (mais pas tout à fait autant que les êtres Q omnipotents, qui semblent transcender les lois de la physique), civilisation qui aurait le pouvoir de construire des mini-trous noirs dans l'espace, tout comme nous en avons produit un en appuyant sur notre crayon. Si vous aviez le pouvoir de créer d'énormes courbures locales dans l'espace, il vous faudrait tâter le terrain à l'aveuglette dans l'espoir de relier par ce trou noir deux régions de l'espace qui, sinon, resteraient à une distance considérable l'une de l'autre. Mais cette proximité ne pourrait advenir qu'une fois un pont établi entre elles par le mini-trou noir. C'est la création même du pont qui change l'état des choses en matière d'espace-temps.
Voilà pourquoi cette tâche ne doit pas être prise à la légère. Lorsque Bhavani, premier ministre de Barzan, se rend à bord de l' Entreprise pour mettre aux enchères les droits de propriété sur le mini-trou noir barzien, elle s'exclame: «Vous avez devant vous le premier et l'unique mini-trou noir stable connu à ce jour!» Malheureusement, stable, il ne l'est pas. Et de fait, les seuls mini-trous noirs dont l'existence mathématique ait été établie avec certitude dans le contexte de la relativité générale sont par nature transitoires. Ces mini-trous noirs apparaissent lorsque deux «singularités» microscopiques - c'est-à-dire deux régions de l'espace-temps où la courbure devient infiniment aiguë - se rencontrent et se soudent momentanément. Cependant, en un temps plus court que celui qu'il faudrait à un explorateur de l'espace pour le traverser, ce minitrou noir se défait, et les deux singularités redeviennent distinctes. Le pauvre explorateur se verrait alors broyer en petit morceaux dans l'une ou l'autre singularité avant même d'avoir atteint l'extrémité du mini-trou noir.
Le problème de savoir comment maintenir l'ouverture d'un mini-trou noir est terriblement difficile à résoudre mathématiquement, mais en physique elle se résume à cette formule simple : la gravité aspire ! Toute matière ou énergie, quelle qu'elle soit, tend à s'affaisser sous sa propre attraction gravitationnelle, à moins que quelque obstacle ne l'en empêche. De même, en des circonstances normales, l'orifice d'un mini-trou noir se rétracte jusqu'à présenter une surface plane.
La solution consiste donc à se débarrasser des circonstances normales. Récemment, le physicien Kip Thorne, du Caltech, a suggéré, avec d'autres, que l'unique moyen de maintenir ouverts les mini-trous noirs est d'y infiltrer des « matériaux exogènes». L'expression renvoie à ces matériaux dont certains observateurs pourront mesurer qu'ils recèlent de l'énergie «négative». Comme vous le présumiez sans doute ( encore que les présomptions naïves soient généralement suspectes dans le domaine de la relativité générale), ces matériaux: auraient tendance à «souffler» et non à «aspirer».
Le plus inconditionnel des fans refusera peut-être encore de croire à l'existence de matière possédant de !'«énergie négative» : mais, nous l'avons noté, dans le domaine de l'espace courbe, les présomptions ordinaires sont souvent suspectes. Si vous combinez cela avec les éléments exogènes imposés par les lois de la mécanique quantique, lois qui régissent le comportement de la matière à petite échelle, on peut tout imaginer - littéralement, tout !

Les trous noirs et le Dr Hawking

Entrée en scène de Stephen Hawking. Il se fit d'abord connaître dans le milieu des physiciens travaillant sur la relativité générale par sa démonstration des théorèmes sur les singularités dans l'espace-temps, puis, dans les années 1970, pour ses remarquables découvertes théoriques sur le comportement des trous noirs. Ces objets sont formés d'un matériau qui s'est affaissé à un tel point que le champ gravitationnel local, à leur surface, empêche jusqu'à la lumière de s'échapper.
Soit dit en passant, le terme de « trou noir», qui a tellement captivé l'imagination populaire, fut inventé par le chercheur en physique théorique John Archibald Wheeler, de l'Université de Princeton, à la fin de l'automne 1967. Cette date n'est pas sans intérêt : à ma connaissance, le premier épisode de Star Trek à faire référence à un trou noir (sous le nom d'«étoile noire») sortit en 1967, avant que Wheeler n'ait utilisé son terme en public. Lorsque je vis cet épisode dans les premières phases préparatoires de cet ouvrage, j'ai trouvé amusant que les concepteurs de la série aient pu se tromper sur le nom. À présent, je me rends compte qu'ils l'ont quasiment inventé!
Les trous noirs sont des objets remarquables à plus d'un titre. Pour commencer, tous les trous noirs finissent par receler une singularité spatio-temporelle en leur centre, et tout ce qui tombe dans le trou noir s'y heurte inévitablement. C'est au niveau d'une telle singularité - sommet d'une courbe infiniment prolongée dans l'espace-temps - que les lois de la physique telles que nous les connaissons s'effondrent. Lorsqu'elle se rapproche de la singularité, la courbure est si étendue sur un si petit espace que les effets de la gravité sont gouvernés par les lois de la mécanique quantique. Pourtant, personne n'a pu écrire de théorie susceptible de combiner la relativité générale (à savoir, la gravité) et la mécanique quantique. Les auteurs de Star Trek ont bien senti cette tension entre les deux : aussi nomment-ils toute singularité spatio-temporelle « singularité quantique». Une chose, toutefois, est certaine : lorsque le champ gravitationnel au centre d'un trou noir atteint une force assez grande pour faire s'effondrer nos théories physiques actuelles, tout objet physique ordinaire s'y trouve déchiqueté. Rien n'y pourrait survivre.
J'ai dit, vous l'avez noté, que le trou noir «cache» une singularité en son centre. La raison en est que les lisières d'un trou noir constituent une surface mathématiquement défi.nie, appelée « horizon événementiel», qui nous empêche de voir ce qui arrive aux objets tombés dans ce trou. À l'intérieur de l'horizon événementiel, l'objet devra forcément heurter la dangereuse singularité. À l'extérieur, il peut encore s'échapper. Certes, un observateur assez malchanceux pour tomber dans un trou noir ne remarquera rien de spécial au moment où il ou elle (avant de devenir «ça ») franchit l'horizon événementiel, mais un observateur qui suivrait le processus de loin verrait quelque chose de bien différent. Le temps ralentit pour un observateur qui tombe librement dans les abords de l'horizon événementiel; le temps est relatif pour un observateur situé à distance. Le résultat, c'est que le premier semblera, aux yeux du second, ralentir au fur et à mesure qu'il s'approchera de l'horizon événementiel. Plus le premier s'approchera de l'horizon événementiel, plus son horloge ralentira par rapport à l'observateur extérieur. Il faudra peut-être quelques instants seulement ( en temps local) au premier pour franchir l'horizon événementiel - où, je le répète, rien de spécial ne se produit et rien de spécial ne se trouve-, mais ce même événement durera une éternité aux yeux du second observateur. L'objet en état de chute semble figé dans le temps.
De plus, la lumière émise par cet objet est de plus en plus difficile à percevoir de l'extérieur. Au fur et à mesure que l'objet se rapproche de l'horizon événementiel, il s'éteint (parce que la radiation qu'il donne à voir se trouve déplacée sur des fréquences infra-visibles). Enfin, quand bien même vous pourriez, de l'extérieur, voir l'objet franchir l'horizon événementiel ( ce qui est impossible, quel que soit le temps que vous pourriez y consacrer), il disparaîtrait entièrement une fois l'horizon franchi, puisque toute la lumière qu'il émettrait se retrouverait coincée à l'intérieur, avec l'objet lui-même. Tout ce qui franchit les limites internes de l'horizon événementiel est perdu à jamais pour le monde extérieur. Et ce défaut de communication est à sens unique : un observateur placé à l'extérieur peut envoyer des signaux à l'intérieur du trou noir, mais aucun signal ne peut lui être renvoyé.
Pour ces raisons, les trous noirs rencontrés dans Star Trek tendent à produire des résultats impossibles. L'horizon événementiel n'est pas un objet tangible, mais plutôt un marqueur mathématique que nous imposons à notre description d'un trou noir pour distinguer la région intérieure de la région extérieure. Cela signifie que l'horizon ne connaît aucune «faille», comme il apparaît dans l'épisode où l'équipage du Voyageur s'échappe miraculeusement d'un trou noir. (Cette idée est si absurde qu'elle a gagné le droit d'admission à ma liste des dix plus grandes erreurs de Star Trek, que vous trouverez au dernier chapitre.) Quant aux «formes de vie proches des singularités quantiques» rencontrées par l'équipage de l' Entreprise, alors qu'elles voyagent dans le temps à proximité d'un Rapace romulien, elles ont élu un nid assez inconfortable pour leurs petits, puisqu'elles les déposent dans des trous noirs naturels (qu'elles croient reconnaître à tort dans la singularité quantique «artificielle» que contient le moteur romulien). Ces trous noirs peuvent constituer des nurseries à toute épreuve, mais il y aura quelque difficulté à récupérer le bébé. Je vous rappelle que nul objet contenu dans un trou noir ne peut communiquer avec un objet demeuré à l'extérieur.
Néanmoins, les trous noirs, quelles que soient leurs intéressantes propriétés, ne sont pas si exotiques qu'on le dit. Les seuls qui nous soient connus dans l'univers résultent de l'effondrement d'étoiles ayant une masse bien supérieure à celle du Soleil. Ces objets effondrés sont d'une telle densité qu'une cuillerée de leur matière pèserait plusieurs tonnes. Toutefois, les trous noirs ont une autre propriété extraordinaire : plus leur masse est importante, plus leur densité est faible au moment où ils se forment. Ainsi, la densité du trou noir formé par l'effondrement d'un objet dont la masse est égale à cent millions de fois celle du Soleil aura une densité égale à celle de l'eau seulement. Un objet d'une masse encore supérieure formera en s'effondrant un trou noir de densité encore plus faible. Si on continue d'extrapoler, on voit que la densité nécessaire à la formation d'un trou noir d'une masse égale à la masse de l'univers tel qu'on peut l'observer équivaut à peu près à la densité moyenne de la matière contenue dans cet univers ! Il est donc bien possible que nous vivions à l'intérieur d'un trou noir.
En 1974, Stephen Hawking fit une découverte remarquable sur la nature des trous noirs. Ils ne sont pas entièrement noirs ! Bien plutôt, ils émettent une radiation à une température précise, qui dépend de leur masse. Bien que la nature de cette radiation ne puisse nous donner la moindre information sur le destin des objets tombés à l'intérieur, l'idée qu'un trou noir pouvait émettre une radiation n'en était pas moins stupéfiante, et semblait contredire un certain nombre de théorèmes - dont certains démontrés précédemment par Hawking - qui prouvaient que la matière pouvait tomber dans le trou noir, mais non en sortir. Cela reste vrai, sauf à la source de la radiation émise par le trou noir, qui n'est pas constituée de matière normale. Il s'agit d'un espace vide qui peut adopter un comportement tout à fait original, notamment dans le voisinage d'un trou noir.
Depuis l'adaptation des lois de la mécanique quantique à la théorie de la relativité restreinte, peu après la Seconde Guerre mondiale, nous savons que l'espace vide n'est pas si vide que cela. C'est une mer bouillonnante et écumante de fluctuations quantiques. Ces fluctuations recrachent parfois des paires de particules élémentaires, qui subsistent durant des périodes si brèves que nous ne pouvons pas les évaluer directement, et disparaissent à nouveau dans le vide d'où elles provenaient. Le principe d'incertitude de la mécanique quantique nous apprend qu'il n'y a aucune façon de sonder directement un espace vide sur des périodes aussi courtes, et, dès lors, aucune façon d'empêcher que l'existence de ces «particules virtuelles» soit si brève. Mais, bien qu'elles ne puissent être mesurées directement, leur présence n'en affecte pas moins certains processus physiques que nous pouvons mesurer - ainsi le taux et l'énergie des transitions entre certains niveaux d'énergie atomique. L'effet présumé des particules virtuelles s'accorde avec les observations autant que toutes les prédictions faites en physique.
Voilà qui nous ramène au remarquable résultat obtenu par Hawking à propos des trous noirs. En des circonstances normales, lorsqu'une fluctuation quantique crée une paire de particules virtuelles, cette paire s'annihile et disparaît à nouveau dans le vide en un laps de temps si court qu'il est impossible d'observer une telle violation de la règle de la conservation énergétique (violation due à la création de la paire, tirée du néant). Toutefois, lorsqu'une paire de particules virtuelles surgit ainsi dans l'espace courbe à proximité d'un trou noir, l'une de ces particules peut tomber dans le trou, l'autre y échapper, et se prêter à observation. Cela parce que la particule qui tombe dans le trou noir peut, en principe, perdre dans ce processus plus d'énergie que n'en avait requis sa création ex nihilo. Dès lors, elle apporte de «l'énergie négative» au trou noir, et l'énergie propre de ce dernier diminue en conséquence. Voilà qui satisfait à la règle de conservation de l'énergie, l'énergie émise par la particule demeurée à l'extérieur du trou noir venant compenser la perte de sa jumelle. C'est pourquoi le trou noir émet une radiation. De plus, comme l'énergie propre au trou noir diminue progressivement dans ce processus, sa masse connaît une rétraction proportionnelle à cette diminution. Il peut finir par s'évaporer entièrement, ne laissant derrière lui que la radiation qu'il a émise au cours de son existence.
Hawking et beaucoup d'autres ne s'en sont pas tenus aux fluctuations quantiques de la matière au sein d'un espace courbe. Ils ont trouvé quelque chose d'encore plus original, et de moins bien défini Si la mécanique quantique ne s'applique pas seulement à la matière et à la radiation, mais aussi à la force de gravité, alors des fluctuations quantiques sur une échelle minuscule doivent se produire également dans l'espacetemps. Malheureusement, nous n'avons pas de théorie applicable pour élucider de tels processus. Ce manque n'a pas empêché les scientifiques de multiplier leurs investigations théoriques sur les phénomènes qui pourraient en résulter.
L'une des spéculations les plus intéressantes est celle-ci : les processus de mécanique quantique pourraient favoriser la création spontanée non pas simplement de particules, mais de « bébé univers» tout neufs. Les théories de la mécanique quantique à ce sujet reflètent, au moins mathématiquement, les solutions découvertes à propos des mini-trous noirs dans le contexte de la relativité générale ordinaire. Ces trous noirs «euclidiens» permettent la création d'un «pont» temporaire, d'où surgit un nouvel univers. La possibilité des mini-trous noirs euclidiens et celle des bébés univers se sont révélées assez excitantes pour que les fluctuations quantiques soient mentionnées au cours de la partie de poker disputée par Hawking avec Einstein et Newton dans l'épisode de la Nouvelle génération intitulée « Descente 1 », La confusion commise par les auteurs de Star Trek ne saurait certes leur être imputée. Actuellement, cette question est passablement embrouillée. Jusqu'à ce que nous ayons découvert le bon angle mathématique pour étudier ces processus de gravitation quantique, tous les arguments sont autant de salves tirées au hasard.
Ce qui nous importe le plus ici, ce n'est pas le phénomène de l'évaporation des trous noirs, ou la création de bébés univers, quel que soit leur intérêt, mais plutôt la découverte que les :fluctuations quantiques de l'espace vide peuvent, du moins en présence de forts champs de gravité, acquérir des propriétés similaires à celles qu'il faudrait pour maintenir un trou noir ouvert. La question centrale, à laquelle on n'a pas encore répondu aujourd'hui, est de savoir si, à proximité d'un trou noir, les fluctuations quantiques peuvent adopter un comportement suffisamment original pour permettre de maintenir un trou noir ouvert.
(Et soit dit une fois encore en passant, je trouve remarquable la prescience des auteurs de la série Star Trek dans leur choix d'une nomenclature. Les mini-trous noirs bajorien et barzien sont censés inclure des champs de « verteron », J'ignore si ce mot a été inventé de toutes pièces ou non. Mais dans la mesure où les particules virtuelles - les fluctuations quantiques dans ce qui est, par ailleurs, un espace vide - sont pour l'instant bien placées pour être considérées comme la «matière exotique» évoquée par Kip Thome, je pense que les auteurs de Star Trek méritent des félicitations pour leur intuition, si cela en était bel et bien une.)
De façon plus générale, si les fluctuations quantiques dans le vide peuvent être exotiques, il est possible qu'une autre configuration originale de matière et de radiation - mettons, une rupture dans le distordeur, ou peut-être un déséquilibre mélangeur introduit par Scotty dans le nœud de distorsion - puisse fournir une solution. Mais ce genre de questions demeure sans réponse. Sans pour autant négliger l'hypothèse - hautement improbable - de mini-trous noirs stables dans l'univers réel, elles n'en débouchent pas moins sur la véritable question: traverser un mini-trou noir relève-t-il d'une impossibilité totale ou seulement partielle? Le problème du mini-trou noir ne se contente pas d'opposer la science à la fiction: c'est une clef qui peut ouvrir des portes que beaucoup souhaiteraient voir demeurer closes.

Les machines à voyager dans le temps, le retour

Les mini-trous noirs, si remarquables qu'ils puissent être en établissant un tunnel à travers de vastes distances dans l'espace, possèdent un potentiel encore plus étonnant, qu'on a pu observer brièvement dans l'épisode du Voyageur intitulé «Le chas de l'aiguille». L'équipage du Voyageur découvre un minuscule trou noir qui les ramène à leur « quadrant alpha» dans la galaxie. Après avoir communiqué avec ce quadrant, il s'avère, à leur grande horreur, que ce n'est pas celui qu'ils connaissent et apprécient, mais le quadrant alpha de la génération précédente. Les deux extrémités du mini-trou noir communiquent avec l'espace à deux époques bien distinctes!
Eh bien, voici un autre exemple où les auteurs de Voyageur ont eu une intuition juste. Si les mini-trous noirs existent, ils peuvent servir de machine à voyager dans le temps ! Cette découverte surprenante a été développée au cours de la dernière décennie. Divers théoriciens, n'ayant rien de plus intéressant à faire, se mirent à examiner la physique des mini-trous noirs un peu plus sérieusement. Les machines à remonter le temps fondées sur les mini-trous noirs sont faciles à dessiner: l'exemple le plus simple (dû une fois de plus à Kip Thome) est d'imaginer un mini-trou noir avec une extrémité fixe et l'autre se déplaçant à une vitesse rapide, mais en deçà de la vitesse-lumière, à travers une région éloignée de la galaxie. En principe, c'est possible, même si la longueur du mini-trou noir reste inchangée. Dans celui que j'ai dessiné plus haut en deux dimensions, il suffit de tirer la partie inférieure de la feuille vers la gauche, de façon que l'espace représenté par la feuille glisse et dépasse l'ouverture du bas du mini-trou noir, tandis que cette ouverture demeure fixe par rapport à l'autre ouverture:


Parce que l'ouverture inférieure du mini-trou noir se déplace par rapport à l'espace dans lequel il est situé, alors que l'ouverture supérieure reste stable, la relativité restreinte nous apprend que les horloges situées près de l'une et de l'autre ouverture fonctionnent à des vitesses différentes. D'une part, si la longueur du mini-trou noir demeure stable, alors, aussi longtemps que l'on est à l'intérieur, les deux extrémités semblent fixes l'une vis-à-vis de l'autre. Dans ce cadre, les horloges situées à ces deux extrémités devraient tourner à la même vitesse. Maintenant, glissez la feuille du bas dans l'autre sens, jusque là où le trou noir était, de façon à remettre son ouverture inférieure dans sa position initiale. Et supposons qu'il faille pour cela une journée, dans· la perception d'un témoin à proximité de l'ouverture inférieure. Pour un observateur placé près de l'ouverture supérieure, ce même processus pourrait sembler prendre dix jours. Si ce second observateur tentait de regarder par l'ouverture supérieure pour voir l'observateur situé près de l'ouverture inférieure, il verrait sur le calendrier de l'observateur la date de neuf jours plus tôt! Et s'il décide de traverser le mini-trou noir pour lui rendre visite, il remontera dans le temps.

Si des mini-trous noirs stables existent, il nous faut concéder que les machines à voyager dans le temps sont possibles. Nous voici de retour chez Einstein, dont j'ai cité les remarques dans le chapitre précédent. Le voyage dans le temps, et par conséquent les mini-trous noirs stables, et donc la matière exotique chargée d'énergie négative - tout cela peut-il encore « être exclu pour des motifs purement physiques» ?
Après tout, les mini-trous noirs ne constituent qu'un exemple parmi d'autres des machines à voyager dans le temps proposées dans le contexte de la relativité générale. Au vu de notre discussion précédente sur la nature de cette théorie, il n'est peut-être pas surprenant que le voyage dans le temps devienne possible. Rappelons la description heuristique des équations d'Einstein que j'ai proposée précédemment:

Du côté gauche = Du côté droit
[Courbure].............[Matière et énergie]

Le côté gauche de cette équation définit la géométrie de l'espace-temps; le côté droit, la distribution de matière et d'énergie. En général, nous demandons: soit une distribution donnée de matière et d'énergie, quelle courbure de l'espace en résultera? Mais nous pouvons également faire le raisonnement à l'envers: pour toute géométrie donnée de l'espace, y compris avec des « courbes spatio-temporelles fermées » - à savoir, les « spirales de causalité» qui vous permettent de retourner à votre point de départ spatio-temporel, telle cette spirale où l' Entreprise est engagé après avoir heurté le Bozeman -, les équations d'Einstein disent exactement quelle distribution de matière et d'énergie correspond. Ainsi, en principe, vous pouvez imaginer tous les voyages dans le temps possibles : les équations d'Einstein vous renseigneront sur la façon dont la matière et l'énergie devront y être distribuées. La question clef devient simplement la suivante : une telle distribution de matière et d'énergie est-elle physiquement possible?
Nous avons déjà rencontré cette question dans le contexte des mini-trous noirs. Les mini-trous noirs stables exigent de la matière exotique chargée d'énergie négative. La solution de Kurt Gôdel quant aux machines à voyager dans le temps implique un univers doté d'une densité constante d'énergie uniforme et à pression zéro, lequel univers tourne sur luimême sans connaître d'expansion. Plus récemment, on suggéra l'idée d'une machine à voyager dans le temps impliquant des « cordes cosmiques» : elle aussi nécessitait une configuration d'énergie négative. De fait, on a récemment prouvé que toute configuration de matière dans la relativité générale venant appuyer l'idée du voyage dans le temps doit impliquer une matière exotique chargée d'énergie négative - du moins aux yeux d'un observateur.
Il est intéressant de noter que presque tous les épisodes de Star Trek où interviennent le voyage dans le temps ou les distorsions temporelles impliquent également quelque forme catastrophique de décharge énergétique, habituellement associées à une rupture de distordeur. Ainsi, la spirale de causalité temporelle dont l' Entreprise est prisonnier est le résultat ( encore que les repères chronologiques cessent de faire sens dans les spirales de causalité) d'une collision avec le Bozeman qui a provoqué la rupture du distordeur, et, par extension, la destruction de l'Entreprise: série d'événements qui ne cessent de se répéter à l'infini, jusqu'à ce que, dans un de ces cycles, r Entreprise réussisse finalement à éviter la collision. La paralysie momentanée du temps à bord de l' Entreprise, découverte par Picard, Data, Troy et LaForge dans l'épisode «Le temps interrompu», semble également être le résultat d'un début de rupture de distordeur, s'ajoutant à une panne de moteur à bord d'un vaisseau romulien proche. Dans « Le temps au carré», un vaste «vortex d'énergie» envoie Picard dans le passé. Dans le tout premier exemple, « Le temps mis à nu», l' Entreprise était rejeté trois jours en arrière à la suite de l'implosion du distordeur. Et la distorsion géante de l'espacetemps dans l'épisode final de La nouvelle génération, qui remonte le temps et menace d'engloutir l'univers tout entier, était causée par l'explosion simultanée de trois versions temporelles distinctes de l' Entreprise, convergeant vers un point identique dans l'espace.
Ainsi, le voyage dans le temps dans l'univers réel ( comme dans celui de Star Trek) semble dépendre de la possibilité de configurations originales de matière. Une civilisation étrangère suffisamment évoluée serait-elle en mesure de construire un mini-trou noir stable ? Ou bien, pouvons-nous déterminer toutes les distributions de masse qui peuvent conduire au voyage dans le temps, et les exclure ensuite, sans exception, pour des « raisons de pure physique», comme aurait dit Einstein? À ce jour, nous ignorons la réponse. Certaines machines à voyager dans le temps spécifiques - telle celle de Gëdel, ou le système basé sur des cordes cosmiques - se sont révélées contraires aux lois de la physique. Si les voyages dans le temps grâce aux mini-trous noirs n'ont pas encore été définitivement écartés, des investigations préliminaires suggèrent néanmoins que les fluctuations gravitationnelles quantiques peuvent conduire les mini-trous noirs à s'autodétruire avant même d'avoir rendu possibles les voyages dans le temps.
Jusqu'à ce que nous ayons une théorie sur la gravité quantique, l'ultime solution à la question des voyages dans le temps restera sans doute sans réponse. Néanmoins, quelques braves, dont Stephen Hawking, s'y sont déjà risqués. Hawking est convaincu que les machines à voyager dans le temps sont impossibles, à cause des paradoxes évidents qui pourraient en résulter, et il a proposé une « conjecture de protection chronologique» : « Les lois de la physique ne permettent pas l'apparition de courbes spatio-temporelles fermées.»
Personnellement, je suis d'accord avec Hawking. Néanmoins, la physique ne se fait pas sur injonction. Comme je l'ai noté plus haut, la relativité générale se montre souvent plus maligne que nos présomptions naïves. En avertissement de quoi j'offre ici deux précédents historiques. Deux fois déjà, pour autant que je le sache, d'éminents théoriciens ont démontré qu'un phénomène suggéré par la relativité générale devait être rejeté parce que les lois de la physique l'interdisaient:
1. Lorsque le jeune astrophysicien Subrahmanyan Chandrasekhar suggéra que des météorites dont la masse représentait 1,4 fois celle du Soleil ne pouvaient pas, après avoir consommé tout leur carburant nucléaire, se fixer en formant une naine blanche, mais devaient continuer à chuter à cause de la gravité, l'éminent physicien sir Arthur Eddington rejeta le résultat en public, par cette affirmation : « Divers accidents peuvent intervenir pour sauver l'étoile, mais je souhaiterais que nous en soyons un peu plus garantis que cela. Je crois qu'il devrait y avoir une loi de la nature pour empêcher toute étoile d'adopter un comportement aussi absurde !» À l'époque, une grande partie de la communauté astrophysicienne prit le parti d'Eddington. Un demi-siècle plus tard, Chandrasekhar obtenait le prix Nobel pour ses intuitions, qui ont depuis été prouvées.
2. Environ vingt ans après qu'Eddington avait réfuté la proposition de Chandrasekhar, un événement très similaire se produisit lors d'une conférence à Bruxelles. J. Robert Oppenheimer, distingué chercheur en physique théorique et père de la bombe atomique, avait calculé que les objets appelés des étoiles à neutrons - les restes des supernovas, encore plus denses que les naines blanches - ne pouvaient pas dépasser environ deux fois la masse du Soleil sans s'affaisser et former ce que nous nommons un trou noir. Le non moins distingué John Archibald Wheeler démontra que ce résultat était impossible, pour la même raison que dans notre premier exemple : il faut bien que les lois de la physique protègent des objets d'un sort aussi absurde. Une décennie plus tard, Wheeler capitulait entièrement, et, détail ironique, devenait célèbre comme l'homme qui avait donné leur nom aux trous noirs.

4 - Data conclut la partie

« Car j'ai pénétré l'avenir,
si loin que porte un regard d'homme,
Vu la Vision de ce monde,
et tous les prodiges à venir.»
Extrait de Locksley Hall, par Alfred Lord Tennyson,
affiché à bord de l'astronef Voyageur.

Qu'à l'avenir Star Trek fasse jouer ou non un mini-trou noir stable, et que l'équipage de ï'Entreprise puisse ou non remonter le temps jusqu'au San Francisco du XIXe siècle, les véritables mises de ce poker cosmique relèvent d'une autre question, celle qui a fondé notre analyse de l'espace-temps courbe: peut-il y avoir une vitesse de distorsion? En effet, si l'on exclut l'hypothèse improbable selon laquelle notre galaxie serait criblée de mini-trous noirs stables, alors - et nos analyses précédentes l'ont clairement démontré - la plupart des galaxies sont vouées à demeurer toujours hors de notre portée. Voilà pourquoi il est enfin temps de poser cette délicate question, et l'on y répondra par un vibrant: « C'est possible.»
Une fois de plus, la perspicacité linguistique des auteurs de Star Trek nous est un guide précieux. J'ai montré qu'aucun mécanisme de propulsion par réacteur ne saurait contourner les trois obstacles qu'oppose la relativité restreinte au voyage interstellaire. Tout d'abord, rien ne voyage plus vite que la vitesse-lumière dans un espace vide. Ensuite, les objets qui se déplacent à une vitesse proche de la vitesse-lumière voient leurs horloges ralentir. Enfin, même si un réacteur pouvait permettre à un vaisseau spatial d'accélérer de façon à se rapprocher de la vitesse-lumière, ses besoins en carburant constitueraient un obstacle insurmontable.
L'idée serait de ne pas utiliser de réacteur pour la propulsion, mais l'espace-temps lui-même, en le distordant. La relativité générale exige que nous précisions nos propos sur le mouvement. Nous avons affirmé que rien ne peut voyager plus vite que la vitesse-lumière: disons plutôt que rien ne peut voyager plus vite que la vitesse-lumière en un endroit donné. Autrement dit, rien ne se déplace plus rapidement que la lumière si l'on se réfère aux repères de distance locaux. Toutefois, si l'espace-temps est courbe, ces repères de distance ne sauraient être universels.
Prenons, si vous le voulez bien, l'univers pour exemple. La relativité restreinte nous enseigne que tous les observateurs immobiles par rapport à leur environnement proche voient leurs horloges fonctionner au même rythme. Dès lors, en me déplaçant à travers l'univers, je peux m'arrêter périodiquement, et déposer des horloges à intervalles réguliers dans l'espace, avec l'idée qu'elles marqueront toutes la même heure. La relativité générale n'altère pas ce résultat. Des horloges immobiles marqueront toutes la même heure. En revanche, la relativité restreinte permet à l'espace-temps luimême de s'étendre. Des objets placés de chaque côté de l'univers observable s'éloignent l'un de l'autre à une vitesse qui est presque celle de la lumière, mais demeurent immobiles par rapport à leur environnement immédiat. De fait, si l'univers ne cesse de s'étendre de façon uniforme et s'il est assez grand - apparemment, ces deux hypothèses sont avérées -, il existe des objets que nous ne pouvons encore voir et qui, en ce moment, s'éloignent de nous à une vitesse plus grande que celle de la lumière, même si les civilisations situées aux confins de cet univers sont immobiles dans le contexte local de leur environnement.
La courbure de l'espace perce donc un trou dans les postulats de la relativité restreinte, et ce trou est juste de taille à permettre à un vaisseau spatial de la Fédération de faire la traversée. Si l'espace-temps lui-même peut être manipulé, les objets peuvent voyager dans une région donnée à une vitesse très basse - mais en même temps, par une expansion ou une contraction de l'espace proprement dit, ils parcourent d'immenses distances en très peu de temps. Nous avons déjà vu comment une manipulation radicale - la découpe et la soudure de régions éloignées de l'univers grâce à un mini-trou noir - pouvait créer des raccourcis dans l'espace-temps. Ce que nous suggérons maintenant, c'est que, à défaut de faire appel à pareille chirurgie, le voyage à super-vitesse-lumière reste globalement possible, même s'il ne peut être appliqué dans un contexte local.
Cette idée fut corroborée par un physicien exerçant au pays de Galles, Miguel Alcubierre, qui décida, juste pour s'amuser, de vérifier si l'on pouvait tirer en matière de relativité générale une solution cohérente qui correspondrait au « voyage dans la distorsion». Il réussit à démontrer qu'il était possible de déterminer une configuration de l'espace-temps dans laquelle un vaisseau spatial pourrait voyager entre deux points dans un laps de temps volontairement court. De plus, au cours du voyage, ce vaisseau pouvait se déplacer, dans son contexte spatial propre, à des vitesses bien inférieures à celle de la lumière, si bien que les horloges placées à bord resteraient synchronisées avec celles restées au point de départ et celles placées au point d'arrivée. La relativité générale nous permettrait d'avoir à la fois le beurre et l'argent du beurre.
Cette idée tient debout. Si l'espace-temps peut être distordu en un point donné de façon à s'étendre derrière un vaisseau spatial et à se contracter devant lui, alors le vaisseau sera porté par ce mouvement comme un surfeur par la vague. L'équipage ne voyagera jamais plus vite que la lumière, puisqu'elle sera portée au même rythme par la vague d'espace en mouvement.
Une façon de se représenter la chose est de s'imaginer à bord du vaisseau spatial. Si l'espace s'étend soudain derrière vous, vous découvrirez que la base stellaire que vous venez tout juste de quitter se trouve à présent à bien des annéeslumière de distance. De même, si l'espace se contracte devant vous, vous découvrirez que la base stellaire qui est votre objectif, et qui, tout à l'heure, se trouvait à quelques années-lumière de distance, est maintenant à portée de vos réacteurs: c'est l'affaire de quelques minutes.
Cette solution permet d'arranger la géométrie de l'espacetemps de telle sorte que les immenses champs gravitationnels nécessaires à de telles expansions et contractions de l'espace ne seront jamais très puissants à proximité du vaisseau ou des deux bases stellaires. À proximité du vaisseau et des bases, l'espace peut être quasi plan, et, dès lors, les horloges à bord du vaisseau et dans les bases stellaires resteront synchronisées. Entre le vaisseau et les bases, les forces marémotrices dues à la gravité seront immenses, mais il n'y a pas à s'en faire tant que vous ne vous y trouverez pas.
Ce scénario est sans doute celui qu'avaient en tête les auteurs de Star Trek lorsqu'ils ont inventé la vitesse de distorsion, même s'il a peu de points communs avec les descriptions techniques qu'ils ont imaginées. Il remplit toutes les exigences dont nous avons fait l'inventaire pour une traversée intergalactique qui soit entièrement maîtrisée : a) un voyage à une vitesse supérieure à celle de la lumière, b) sans aucune dilatation du temps, c) qui ne fasse pas appel à la propulsion par réacteur. Bien sûr, jusqu'ici nous nous sommes fondés sur une pétition de principe. En faisant de l'espace-temps lui-même un facteur dynamique, la relativité générale permet la création d'« espaces-temps créatifs», dans lesquels presque toute forme de mouvement devient possible dans l'espace et le temps. Pour faire de l'espace-temps souhaité un concept de physique, il faut déterminer la distribution de matière et d'énergie nécessaires. Je reviendrai bientôt sur ce point.

Quoi qu'il en soit, ces « espaces-temps créatifs» ont ce merveilleux avantage qu'ils permettent un retour au défi originel de Newton, et la création d'amortisseurs inertiels et de faisceaux magnétiques. L'idée est la même que pour la vitesse de distorsion. Si l'espace-temps autour du vaisseau peut être distordu, alors les objets s'éloigneront ou se rapprocheront sans provoquer ces accélérations locales qui, on s'en souvient, empoisonnaient l'existence de Newton. Pour éviter les accélérations incroyables qu'exige une vitesse d'impulsion inférieure à la vitesse-lumière, il fallait avoir recours aux mêmes ruses spatio-temporelles que pour la vitesse de distorsion. La différence entre vitesse d'impulsion et vitesse de distorsion s'en trouve réduite. Ainsi, pour haler un objet lourd, une planète par exemple, à l'aide d'un faisceau magnétique, il suffit d'étendre l'espace de l'autre côté de la planète et de le contracter du nôtre. C'est tout simple !
Distordre l'espace comporte bien d'autres avantages. Il est clair que si l'espace-temps se courbe fortement devant ï'Entreprise, tout rayon de lumière, ou, en l'occurrence, de phaseur sera dévié du vaisseau. C'est sans aucun doute selon ce principe que fonctionnent les boucliers déflecteurs. Bien sûr, ils opèrent, nous dit-on, par « émission cohérente de gravitons». Mais puisque les gravitons sont par définition des particules qui transmettent la force de gravité, une « émission cohérente de gravitons» n'est rien d'autre que la création d'un champ gravitationnel cohérent. Or ce dernier est précisément, pour parler le jargon moderne, ce qui courbe l'espace! Ainsi, une fois de plus, les auteurs de Star Trek ont fini par choisir le terme juste.
J'imagine que les techniques de brouillage opèrent de la même manière : un vaisseau de l' Entreprise qui déploie des boucliers déflecteurs ne diffère pas beaucoup d'un Rapace roroulien qui se dissimule. Après tout, si nous voyons un objet qui n'émet pas de lumière en soi, c'est bien parce qu'il en renvoie une, qui nous parvient. Le brouillage consiste d'une façon ou d'une autre à distordre l'espace de façon que des rayons de lumière incidents se courbent tout autour du Rapace au lieu d'être réfléchis par lui. La distinction entre ce phénomène et les boucliers déflecteurs del' Entreprise est minime. À ce sujet, une question qui a troublé maint fan de la série jusqu'à ce que fût diffusé l'épisode de la Nouvelle génération intitulé «Pégase» est la suivante: pourquoi la Fédération n'emploiet-elle pas de technologie de brouillage? Il semblerait, d'après ce qu'on a vu, qu'une civilisation capable d'inventer les boucliers déflecteurs pourrait aussi bien accéder à cette technologie. Comme nous l'avons appris dans «Pégase», ce qui retarde la Fédération dans sa mise au point des techniques de brouillage, c'est un traité diplomatique plus qu'un retard technologique. (L'épisode «Les meilleures choses ... », le tout dernier de la Nouvelle génération, montre clairement que la Fédération semble avoir autorisé les techniques de brouillage à bord des vaisseaux spatiaux.)
Enfin, étant donné ce tableau de la distorsion dans un contexte de relativité générale, la vitesse de distorsion revêt un aspect un peu plus concret. Elle semble dépendre de l'extension et de la contraction du volume spatial devant et derrière le vaisseau. Les conventions en matière de vitesse de distorsion n'ont jamais été très fixes: entre la première série et la seconde, Gene Roddenberry a apparemment décidé qu'il fallait recalibrer la vitesse de distorsion de façon à ne jamais dépasser le niveau 10. Ce qui signifiait qu'elle ne pouvait se contenter d'être une échelle logarithmique dans laquelle le niveau 10, par exemple, correspondrait à 210, à savoir 1024 fois la vitesse-lumière. Si l'on en croit le Manuel technique de la Nouvelle génération, le niveau 9,6, qui représente l'extrême limite admise pour l'Entreprise-D, correspond à 1 909 fois la vitesse-lumière, et le niveau 10 correspond à une vitesse illimitée. On notera avec intérêt que, malgré cette redéfinition, certains objets (le cube Borg, par exemple) sont signalés de temps à autre comme allant à une vitesse supérieure au niveau 10 : je suppose donc qu'il ne faut pas se préoccuper outre-mesure de ces petits détails.

Voilà pour les bonnes nouvelles.
Sachant que la vitesse de distorsion n'est pas impossible, du moins en principe, il nous faut maintenant examiner les conséquences du côté droit des équations d'Einstein, celui qui gère la distribution de l'énergie et de la matière nécessaires à produire la courbure souhaitée de l'espace-temps. Et devinez quoi : la situation est presque pire que dans le cas des rninitrous noirs. Des observateurs qui voyagent à grande vitesse à travers un mini-trou noir peuvent mesurer une énergie négative. En ce qui concerne la matière nécessaire à produire la distorsion, même un observateur immobile par rapport au vaisseau (autrement dit, qui se trouve à bord) mesurera une énergie négative.
Ce résultat n'a rien de bien surprenant. À partir d'un certain niveau, les solutions bizarres qui nous ont paru nécessaires pour maintenir un mini-trou noir ouvert, autoriser les voyages dans le temps et réaliser la vitesse de distorsion impliquent toutes qu'à certaines échelles la matière doit repousser gravitationnellement d'autres formes de matière. Or un théorème de la relativité générale précise que cette condition revient quasiment à exiger que l'énergie de la matière observée soit négative.
Ce qui ne peut que surprendre, en revanche, c'est le fait, mentionné plus haut, que la mécanique quantique, combinée avec la relativité restreinte, implique que, du moins à des échelles microscopiques, la distribution locale d'énergie soit négative. De fait, comme je l'ai noté dans le chapitre 3, les fluctuations quantiques ont souvent cette propriété. La question principale, qui n'a pas encore trouvé de réponse à ce jour, est la suivante : les lois de la physique telles que nous les connaissons permettent-elles à la matière de garder ces propriétés à une échelle macroscopique? En fait, nous n'avons pas la moindre idée de la façon dont on pourrait produire une telle matière sans contrevenir aux lois de la physique.
Toutefois, laissons un moment de côté les obstacles potentiels à la création de cette matière, et supposons qu'il sera un jour possible de créer de cette matière exotique, en recourant à quelque manipulation quantique, sur la matière ou l'espace vide. Même ainsi, en comparaison de l'énergie nécessaire à effectuer ces extraordinaires manipulations spatio-temporelles, la puissance requise pour atteindre la vitesse de propulsion paraît fort réduite. Considérons la masse du Soleil, qui équivaut à environ un million de fois celle de la Terre. Le champ gravitationnel à la surface du Soleil permet d'obtenir une courbure de la lumière d'à peine un millième d'un degré. Imaginez les immenses champs gravitationnels qu'il faudrait générer à proximité d'un vaisseau spatial pour fléchir de 90° un rayon de phaseur fonçant droit sur eux. (C'est l'une des nombreuses raisons pour lesquelles le fameux « effet de fronde», qui fit son apparition dans l'épisode classique «Demain est hier» pour donner à !'Entreprise l'impulsion nécessaire à lui faire remonter le temps, qu'on revit dans Star Trek IV: Retour à la maison, et qui fut enfin mentionné dans l'épisode de la Nouvelle génération, « Le temps au carré», est entièrement impossible. Le champ gravitationnel à la surface du Soleil est dérisoire comparé aux forces de gravitation nécessaires pour produire les perturbations spatio-temporelles déjà mentionnées.) Pour estimer la quantité d'énergie nécessaire, il faut imaginer la production d'un trou noir de la taille de l' Entreprise, qui produirait un champ gravitationnel, lequel pourrait à son tour exercer une courbure importante sur tout rayon de lumière passant à proximité. La masse d'un tel trou noir représenterait environ 10 % de celle du Soleil. Convertie en unités d'énergie, elle indique qu'il faudrait générer, pour produire un trou noir, une énergie supérieure à celle produite par le Soleil pendant son existence tout entière.

Où en sommes-nous à l'issue de cette partie? Nous en savons assez sur la nature de l'espace-temps pour décrire explicitement comment il serait, en principe, possible d'utiliser l'espace courbe afin d'obtenir les caractéristiques essentielles des voyages dans l'espace interstellaire (style Star Trek). Nous savons que, sans ces hypothèses originales, nous avons peu de chances de traverser jamais la galaxie. D'un autre côté, nous ignorons si les conditions physiques nécessaires peuvent être réalisées en pratique, ou même simplement permises par la théorie. Enfin, quand bien même elles le seraient, il est clair qu'une civilisation mettant ces principes en pratique devra mobiliser des énergies qui dépassent largement tout ce qu'on peut concevoir aujourd'hui.
Je suppose que l'on pourrait se montrer optimiste et dire que ces merveilles entre les merveilles du moins ne sont pas impossibles a priori. Elles ne dépendent que d'une possibilité lointaine: celle de créer et de nourrir une matière et une énergie originales. Il y a encore de l'espoir, mais franchement, je demeure sceptique. Comme mon collègue Stephen Hawking, je crois que les paradoxes propres aux allers-et-retours dans le temps les rendent inconcevables pour toute théorie physique raisonnable. Puisque, a priori, les mêmes conditions énergétiques et matérielles sont requises pour le voyage en distorsion et les boucliers déflecteurs, je ne crois pas à leur concrétisation - mais il m'est arrivé de me tromper.

Néanmoins, je persiste dans mon optimisme. Ce qui me paraît réellement digne d'hommage, c'est la somme remarquable de connaissances qui nous a menés jusqu'à ce seuil fascinant. Nous vivons dans un coin reculé de l'une des cent milliards de galaxies de l'univers observable. Comme le petit insecte sur sa feuille de caoutchouc, nous vivons dans un univers dont la véritable forme échappe au regard. Et pourtant, en moins de vingt générations - de Newton à nos jours-, nous avons exploité les lois fondamentales de la physique pour éclairer les profondeurs de l'espace et du temps. Il est probable que nous ne réussirons jamais à monter à bord de vaisseaux avec pour destination ultime les étoiles, mais, même en restant prisonniers de cette minuscule planète bleue, nous avons réussi à pénétrer le ciel nocturne et à y trouver des merveilles - il en reste d'ailleurs sûrement beaucoup d'autres à découvrir. Si la physique ne peut nous donner ce dont nous aurions besoin pour courir la galaxie, du moins nous offre-t-elle toutes les données requises pour la mettre à notre portée.

Deuxième partie

De l'importance de la matière

Où le lecteur découvrira les faisceaux magnétiques, la distorsion, les cristaux de dilithium; les moteurs alliant matière et antimatière, et le holodeck.

5 - Bits ou atomes

« Reg, la téléportation est de loin
la façon la plus sûre de voyager.»
Geordi LaForge au lieutenant Reginald Barclay,
dans « Le domaine de la terreur»

La vie imite l'art. Depuis quelque temps, j'entends ressasser la même question : « Bits ou atomes - de quoi sera fait notre avenir?» Trente ans plus tôt, Gene Roddenbury affrontait le même débat, mais pour un tout autre impératif. Il avait une magnifique ébauche de vaisseau spatial, qui ne posait qu'un seul problème: comme le pingouin dans l'eau, !'Entreprise glissait sans heurt dans les profondeurs de l'espace, mais comme le pingouin sur la terre ferme, elle avait quelque problème à garder l'équilibre lors d'un atterrissage. Plus important peut-être, le maigre budget d'une série télévisée hebdomadaire interdisait de mettre en scène chaque semaine l'atterrissage d'un immense vaisseau spatial.
Comment résoudre le problème? La solution était simple : il fallait s'assurer que le vaisseau n'aurait jamais à atterrir, et trouver une autre façon de convoyer les membres de l'équipage depuis le vaisseau sur le sol d'une planète. À peine aviez-vous dit « Téléportation ! » que le téléporteur était né.
Il n'est peut-être aucune prouesse technique, excepté la vitesse de distorsion, qui marque aussi régulièrement les missions de chaque vaisseau spatial de la Fédération. Et même ceux qui n'ont jamais regardé un épisode de Star Trek reconnaissent le mot magique qui conclut le paragraphe précédent. Elle a investi notre culture populaire. J'ai entendu parler récemment d'un jeune homme qui, en état d'ivresse, avait brûlé un feu rouge et défoncé une voiture de police qui traversait le carrefour en toute légalité. Lors de son interrogatoire, on lui demanda s'il avait quelque chose à déclarer. Dans un désespoir bien légitime, il répliqua « Oui, Votre Honneur», sortit son portefeuille, l'ouvrit d'un coup de pouce et grommela, le tenant devant sa bouche : « Téléportation, Scotty ! »
Cette histoire est sans doute apocryphe, mais témoigne de l'impact que cette technologie hypothétique a eu sur notre culture - un impact d'autant plus remarquable que, de toutes les prouesses technologiques de science-fiction exhibées à bord de l' Entreprise, c'est la plus improbable. Créer un tel processus soulève plus de problèmes théoriques et pratiques qu'on ne l'imagine. Il joue sur toute la gamme des physiques et des mathématiques, y compris la théorie de l'information, la mécanique quantique, les équations d'Einstein mettant en rapport masse et énergie, la physique des particules élémentaires, etc.
Ce qui me ramène au débat entre atomes et bits. La question principale que la téléportation nous oblige à nous poser est la suivante: lorsqu'il s'agit de déplacer, du vaisseau à la planète, environ 1028 ( soit 1 suivi de 28 mille zéros) atomes de matière, combinés en une structure complexe afin de composer un individu humain, quel est le processus le plus rapide et le plus efficace ? Cette question vient à point : nous sommes confrontés à la même difficulté lorsque nous cherchons la meilleure façon de décomposer la structure complexe des 1026 atomes d'un livre de poche ordinaire. Un concept potentiellement révolutionnaire, ou du moins revendiqué comme tel par divers gourous des médias numériques, est que les atomes eux-mêmes sont souvent secondaires. Ce qui importe, ce sont les bits.
Prenons l'exemple d'un livre de bibliothèque. Une bibliothèque achète un exemplaire ( ou plusieurs, si nous avons de la chance) d'un livre qu'elle stocke et prête à un individu, au coup par coup. Dans une bibliothèque numérique, les mêmes données sont stockées sous forme de bits. Un bit est un O ou un 1 ; les bits sont combinés par groupes de huit appelés octets, lesquels groupes figurent des mots ou des chiffres. Ces données sont stockées dans les disques mémoriels magnétiques d'ordinateurs, où chaque bit se voit représenté soit par une région magnétisée, à savoir (1), soit par une région non magnétisée, à savoir (0). Un nombre illimité de lecteurs aura accès au même compartiment mémoriel d'un ordinateur à peu près simultanément, si bien que, dans une bibliothèque numérique, tous les individus vivant sur terre, qui devraient sinon acheter ce livre, peuvent le lire et le recevoir d'une source unique. Il est clair que, dans ces conditions, tenir en main les atomes concrets qui composent le livre est moins important, et surtout moins efficace que de stocker les bits (nonobstant les ravages quant aux droits d'auteur).

Et avec les personnes? Si on commence à déplacer les personnes, faut-il déplacer leurs atomes ou leurs données? A priori, on pourrait penser que déplacer les données est beaucoup plus facile, notamment parce qu'elles peuvent voyager à la vitesse-lumière. Toutefois, avec les personnes, deux problèmes que les livres ne posaient pas apparaissent : d'une part, il faut extraire les données, ce qui n'a rien d'évident; d'autre part, il faut les recombiner avec la matière. Après tout, les personnes, contrairement aux livres, ont grand besoin de leurs atomes.
Les auteurs de Star Trek sont toujours restés un peu confus quant aux véritables fins de la téléportation. Déplace-t-elle les atomes et les bits, ou simplement les bits ? Vous pouvez vous interroger sur la nécessité de cette distinction, puisque le Manuel technique de la Nouvelle génération décrit le processus en détail. Tout d'abord, le téléporteur est braqué sur sa cible. Il scanne l'image destinée à être transportée, la « dématérialise», la stocke dans un « circuit modélisateur », puis transmet le « flot de matière» par un « rayon de confinement annulaire» jusqu'à sa destination. Le téléporteur convoierait donc la matière en même temps que les données.
Le seul problème de cette description, c'est qu'elle ne colle pas avec certains usages du téléporteur. Dans deux célèbres exemples au moins, il transporte une seule personne et en remonte deux. Dans l'épisode classique intitulé « L'ennemi intérieur», un dysfonctionnement scinde Kirk en deux versions de lui-même, une bonne et une méchante. Un autre dérapage, permanent cette fois, nous apprend, dans l'épisode« Une deuxième chance», épisode de la Nouvelle génération, que le lieutenant Riker a été dédoublé alors qu'il était téléporté de la planète Nervala IV au vaisseau Potemkin. L'un de ces doubles rentre sain et sauf au Potemkin, l'autre est renvoyé sur la planète, où il vivra seul pendant huit ans.
Si le téléporteur convoie en même temps le flot de matière et le signal de données, de tels dédoublements sont impossibles. Le nombre d'atomes qui vous re-constituent à l'arrivée est forcément le même qu'au départ. Impossible de produire des copies de personnes dans de telles conditions. D'un autre côté, si ce sont les seules données qui sont remontées, on pourrait imaginer de les combiner avec des atomes stockés par ailleurs à bord du vaisseau, pour créer un nombre illimité de doubles d'un même individu.
Un problème similaire concernant le flot de matière apparaît lorsque nous considérons le destin d'objets remontés sous forme d'«énergie pure». Par exemple, dans l'épisode de la Nouvelle génération intitulé« Seul parmi nous», Picard décide à un moment de se faire téléporter en tant qu'énergie pure, affranchie des contraintes de la matière. Cette expérience s'étant révélée aussi lamentable que dangereuse, il réussit à être remonté, et son enveloppe corporelle lui est rendue, sortie du circuit modélisateur. Mais si le flot de matière avait été dispersé dans l'espace, on n'aurait, en fin de compte, rien pu lui rendre du tout.
Aussi, nonobstant le manuel d'instructions de Star Trek, j'entends adopter une position agnostique sur ce point, et explorer plutôt les milliers de problèmes et de défis associés au transport d'atomes, ou au transport de bits.

Les corps incorporels

La question la plus fascinante en ce qui concerne la téléportation - encore qu'on ne la pose pas souvent - est peut-être la suivante: de quoi est fait exactement l'être humain? Ne sommes-nous constitués que par la somme de nos atomes? Plus précisément, s'il me fallait recréer chaque atome de votre corps, en gardant précisément le même état chimique d'excitation dans lequel vos atomes sont en ce moment, est-ce que je produirais une personne fonctionnant à l'identique, qui serait dotée de vos souvenirs, de vos espoirs, de vos rêves? Il y a toutes les raisons de supposer qu'il en serait ainsi, mais il faut néanmoins noter que cette supposition contredit nombres de croyances spirituelles quant à l'existence d'une «âme» qui se distinguerait d'une façon ou d'une autre du corps. Qu'est-ce qui se produit quand vous mourez, après tout? De nombreuses religions ne soutiennent-elles pas que l'«âme» perdure après la mort? Qu'arrive-t-il donc à l'âme tandis que le corps est téléporté? En ce sens, le téléporteur serait une merveilleuse expérience en matière de spiritualité. Si une personne remontée à bord de l' Entreprise demeurait intacte et manifestement identique, cela serait une preuve frappante qu'une personne humaine n'est rien de plus que la somme de ses parties corporelles, et cette démonstration contredirait immédiatement nombre de croyances spirituelles.
Pour des raisons évidentes, cette question est méticuleusement évincée dans la série. Cependant, en dépit de la nature purement physique de la dématérialisation et du processus de la téléportation, l'idée qu'il existe une sorte de « force vitale» floue au-delà des limites corporelles est un thème qui apparaît constamment dans la série. Les deuxième et troisième films Star Trek, La colère de Khan, et A la recherche de M. Spock, se fondent sur l'idée que Spock, quant à lui, possède un « katra » - un esprit vivant - qui existe indépendamment de son corps. Plus récemment, dans l'épisode du Voyageur intitulé « Cathexis », l' « énergie neuronale», équivalent de la force vitale, de Chakotay lui est retirée et erre dans le vaisseau, de personne en personne, dans ses tentatives de réincorporation.
Je ne crois pas que l'on puisse ainsi jouer sur les deux tableaux. Soit «l'âme», le « katra », la «force vitale», quel que soit le nom que vous vouliez lui donner, fait partie intégrante du corps et nous ne sommes rien de plus que notre essence matérielle, soit elle n'en fait pas partie. Ne désirant pas offenser les esprits religieux, même ceux de Vulcain, je préfère rester neutre dans ce débat. Toutefois, il me semblait utile de souligner, avant de poursuivre, que les postulats les plus basiques du téléporteur (à savoir que nous ne sommes constitués que d'atomes et de bits) ne doivent pas être pris à la légère.

Les bits posent problème

Nombre des problèmes que je discuterai un peu plus bas pourraient être évités si l'on pouvait ne pas convoyer les atomes avec les données. Après tout, quiconque a eu accès à Internet sait combien il est facile de convoyer un flot de données sur une voiture, photographies comprises. Déplacer la véritable voiture, en revanche, s'avère plus ardu. Néanmoins, deux problèmes de taille surgissent lorsqu'il s'agit de convoyer les bits. Le premier conduit ordinairement à une impasse, que durent affronter les dernières personnes qui ont vu Jimmy Hoffa vivant: qu'est-ce qu'on va faire du corps? S'il ne s'agit que de convoyer les données, il faudra se débarrasser des atomes au point d'origine et constituer un nouvel ensemble à l'arrivée. Ce problème est vraiment de taille. Si vous voulez vous défaire de 1028 atomes, vous aurez du pain sur la planche. Si, par exemple, vous voulez simplement transformer toute cette matière en énergie pure, quelle quantité d'énergie en résultera? La formule d'Einstein, E=mc2, nous l'apprend. En transformant soudain 50 kilogrammes de matière (un adulte poids plume) en énergie, on dégagera une énergie équivalant à plus de mille bombes à hydrogène d'une mégatonne. Difficile à réaliser sans choquer les écolos.

Cette procédure pose bien sûr un autre problème. Si elle est possible, la duplication de personnes humaines devient chose aisée. Elle est encore plus simple que la téléportation, puisqu'il est inutile de détruire le sujet d'origine. La duplication d'objets inanimés par de tels moyens est facile à admettre, et de fait les membres d'équipage à bord des vaisseaux spatiaux s'en accommodent fort bien. Toutefois, la duplication de personnes humaines vivantes ne peut que provoquer des catastrophes (voyez Riker dans « Une seconde chance »), Si, de nos jours, les recherches en matière de restructuration d'ADN provoquent une multitude de questions éthiques, l'on ne peut que rester abasourdi en songeant à celles qui seraient soulevées si des individus à part entière, mémoire et personnalité comprises, pouvaient être dupliqués à volonté. Les gens deviendraient des programmes d'ordinateur ou des épreuves de livre stockés sur disquette. Si l'un d'eux s'endommageait ou était contaminé par un virus, il suffirait de recourir à une version de rechange.

Bon, gardons les atomes

Les arguments précédents suggèrent que, pour des raisons à la fois pratiques et éthiques, mieux vaut imaginer un téléporteur qui, comme celui de Star Trek, convoie un flot de matière en même temps que le signal. Le problème devient le suivant : comment transportez-vous les atomes? De nouveau, le défi posé concerne l'énergie, mais de façon un peu plus subtile.
De quoi aurait-on besoin pour « dématérialiser» quelque chose dans le téléporteur? Pour répondre à cette interrogation, il nous faut examiner d'un peu plus près une question simple: qu'est-ce que la matière? Toute matière ordinaire est composée d'atomes, eux-mêmes formés de noyaux centraux de forte densité, entourés d'un nuage d'électrons. Comme vous vous le rappelez peut-être de vos cours de physique ou de chimie au lycée, le volume d'un atome est majoritairement constitué d'espace vide. La région occupée par les électrons extérieurs est environ dix mille fois plus vaste que celle du noyau.
Si les atomes sont principalement constitués d'espace vide, pourquoi la matière ne peut-elle infiltrer une autre matière? La réponse, c'est que ce qui rend un mur solide, ce n'est pas les particules en elles-mêmes, mais les champs électriques qui les séparent. Ce qui empêche en premier lieu ma main de passer à travers mon bureau, quand je l'abats sur lui, c'est la répulsion électrique ressentie par les électrons contenus dans les atomes de ma main, et provoquée par la présence de ceux du bureau, et non le manque d'espace laissé par les électrons.
Ces champs électriques ne se contentent pas d'assurer la consistance de la matière, dans le sens où ils empêchent les objets de s'interpénétrer, mais l'empêchent également de se désagréger. Pour modifier cette situation normale, il faut éliminer les forces électriques présentes entre les atomes. Ce qui demande du labeur, et donc de l'énergie. La configuration atomique et les liaisons internes entre atomes sont altérées par un échange d'énergie. Par exemple, si on injecte une certaine énergie dans un mélange de nitrate d'ammonium et de pétrole, les énergies de ces deux matières se réorganisent, et au cours de ce processus «l'énergie de liaison» qui donnait leur cohésion aux matériaux originels peut être déchargée. Cette décharge, si elle se produit assez rapidement, provoquera une grosse explosion.
L'énergie qui rattache entre eux les atomes est toutefois minuscule comparée à celle qui unit les particules (protons et neutrons) composant les noyaux incroyablement denses des atomes. Les forces qui maintiennent ensemble ces particules dans un noyau produisent une « énergie de liaison» des millions de fois plus forte que celle des atomes. Les réactions nucléaires, dès lors, déchargent considérablement plus d'énergie que les réactions chimiques, et c'est pourquoi les armes nucléaires sont si dangereuses.
Enfin, l'énergie de liaison qui maintient ensemble les particules élémentaires, ou quarks, qui constituent les protons et neutrons eux-mêmes, est encore plus forte que celle qui maintient ensemble lesdites particules dans le noyau. De fait, on pense en général, en se basant sur tous les calculs qu'on peut faire à partir de la théorie qui décrit les interactions des quarks, qu'il faudrait une somme infinie d'énergie pour séparer entièrement les quarks constituant chacun des neutrons ou protons.
Cette démonstration pourrait vous faire croire qu'il est impossible de décomposer entièrement la matière en quarks, ses ultimes constituants, et c'est le cas dans un espace à température normale. Toutefois, la théorie qui décrit l'interaction des quarks à l'intérieur des protons et neutrons nous apprend que, si nous faisions chauffer le noyau jusqu'à environ 1000 milliards de degrés (pour atteindre une température environ un million de fois plus élevée qu'au centre du Soleil), alors non seulement les quarks qui sont à l'intérieur perdraient leur énergie de liaison, mais ce degré de température ferait perdre à la matière, d'un seul coup, presque toute sa masse. La matière se transformerait en radiation - ou, pour revenir à la téléportation, elle se dématérialiserait.
Il suffit donc, pour venir à bout de l'énergie de liaison de la matière à son niveau le plus fondamental ( cité dans le manuel technique de Star Trek), de la faire chauffer jusqu'à concurrence de 1 000 milliards de degrés. Convertie en unités d'énergie, cette température implique qu'il faut fournir environ 10 % de la masse au repos des protons et neutrons ainsi chauffés. Pour effectuer une telle opération sur un échantillon de taille humaine, il faudrait donc environ 10 % de l'énergie nécessaire pour annihiler la matière, soit l'équivalent de cent bombes à hydrogène d'une mégatonne.
On pourrait suggérer, étant donné ces conditions intimidantes, que le scénario que je viens de décrire est meurtrier. Peut-être n'avons-nous pas besoin de décomposer la matière en quarks? Peut-être la téléportation ne requiert-elle qu'une dématérialisation jusqu'au niveau des neutrons et protons? Certes, l'énergie requise serait bien moindre, encore que formidable. Malheureusement, en tentant d'esquiver le problème, nous ne faisons que l'aggraver. Car une fois que vous disposez du flot de matière, à présent composé de neutrons, de protons et d'électrons individuels, ou peut-être d'atomes entiers, il vous reste à le convoyer, et vraisemblablement à une vitesse représentant une proportion appréciable de la vitesse-lumière.
Pour amener des particules comme les protons et neutrons à se déplacer à une vitesse proche de celle de la lumière, il faut les investir d'une énergie comparable à celle de leur masse au repos. Elle s'avère environ dix fois plus grande que la somme d'énergie nécessaire à chauffer et «dissoudre» les protons en quarks. Néanmoins, même s'il faut plus d'énergie par particule pour accélérer les protons jusqu'à atteindre une vitesse proche de celle de la lumière, cette solution reste plus aisée que la mise en dépôt et le stockage d'une énergie suffisante à l'intérieur des protons, et assez durable pour les chauffer et les dissoudre en quarks. C'est pourquoi, de nos jours, nous pouvons construire (à grand frais, toutefois) d'énormes accélérateurs de particules, comme le Tevatron du Fermilab (à Batavia, en Illinois) qui peut accélérer des protons isolés jusqu'à une vitesse représentant plus de 99,9 % de lavitesse-lumière. En revanche, nous n'avons pas encore réussi à construire un accélérateur qui puisse bombarder les protons avec assez d'énergie pour les « dissoudre» en leurs quarks constitutifs. De fait, l'un des buts des physiciens qui conçoivent la nouvelle génération de grands accélérateurs, dont celui qu'on construit actuellement au Brookhaven National Laboratory, sur Long Island, est de parvenir à cette «dissolution» de la matière.
Et pourtant, une fois de plus, je suis impressionné par la justesse des choix terminologiques des auteurs de Star Trek. La dissolution des protons en quarks représente ce qu'en physique on nomme une transition de phase. Oyez et admirez ! Si l'on cherche dans le Manuel technique de la Nouvelle génération le nom des instruments qui, lors de la téléportation, dématérialisent la matière, l'on découvre qu'ils s'appellent les « bobines de transition de phase».
Les concepteurs à venir de téléporteurs devront faire un choix. Soit il leur faudra trouver une source d'énergie qui produise temporairement une puissance représentant environ dix mille fois la puissance entière consumée sur terre, et ils pourront réaliser un « flot de matière» capable de charrier les données à une vitesse proche de celle de la lumière. Soit ils pourront réduire la somme d'énergie requise par dix, et découvrir un moyen de chauffer un être humain instantanément jusqu'à concurrence d'un million de fois la température au centre du Soleil.

Sur l'autoroute des données, empruntons la voie rapide

Au moment où je tape cette phrase sur mon PC, j'admire la vitesse à laquelle cette technologie s'est développée depuis l'époque où j'ai acheté mon premier Macintosh, il y a un peu plus de dix ans. Je me rappelle que la mémoire interne de cette machine était de 128 kilo-octets, alors que mon ordinateur actuel stocke 16 mégaoctets, et la station de travail que j'ai au bureau, dans le Département de physique de Cave Western Reserve, 128 mégaoctets. Ainsi, en l'espace d'une décennie, les capacités mémorielles de mon ordinateur ont été multipliées par mille! À cet accroissement s'ajoute celui de la capacité mémorielle de mon disque dur. Ma première machine n'en possédait pas, et il me fallait travailler à l'aide de disquettes qui pouvaient contenir 400 kilo-octets de données. Mon ordinateur actuel possède un disque dur de 500 mégaoctets - mes capacités de stockage s'en voient à nouveau multipliées par mille. La vitesse de mon ordinateur personnel a également beaucoup augmenté au cours de la dernière décennie. Lorsqu'il s'agit de faire des calculs numériques détaillés, j'estime que mon ordinateur actuel est presque cent fois plus rapide que mon premier Macintosh. Au bureau, ma station de travail est peut-être encore dix fois plus rapide, et traite près d'un demi-milliard d'instructions par seconde !
Même dans les petits détails, les progrès sont impressionnants. Les ordinateurs les plus rapides à usage général ont multiplié environ par cent leur vitesse et leurs capacités mémorielles au cours de la dernière décennie. Et je ne compte pas dans ce jugement les ordinateurs pour travaux spécialisés : ces petites merveilles peuvent atteindre une vitesse de travail traitant plus de dix milliards d'instructions par seconde. On a démontré qu'en principe on doit pouvoir construire certains dispositifs spécialisés, utilisant un système biologique basé sur l'ADN, qui pourraient atteindre une vitesse bien supérieure.
On peut se demander jusqu'où tout ceci nous mènera, et si nous pouvons supposer que les évolutions dans l'avenir seront aussi rapides que par le passé. Une autre question de bon sens est de savoir si nous pourrons tenir longtemps à une telle allure. Au bout du compte, c'est l'utilisateur qui détermine le rythme de la circulation sur les autoroutes de l'information. Pour commencer, ce qui met un terme au traitement des données, c'est le rythme d'absorption: nous ne pouvons assimiler les données à l'infini. Essayez de surfer sur Internet pendant quelques heures d'affilée, pour prendre un exemple parlant. Je me demande souvent pourquoi, avec la puissance incroyable qui est la mienne, ma productivité personnelle n'a pas connu une expansion aussi considérable que celle de mon ordinateur. Je crois que la réponse est limpide. Je ne suis pas limité par la puissance de mon ordinateur, mais par mes propres capacités. On a affirmé pour cette raison que l'ordinateur représentait la phase suivante de l'évolution humaine. Il est vrai que Data, même s'il ne peut ressentir d'émotions, est de loin supérieur à ses collègues humains dans beaucoup de domaines. Et, comme il a été établi dans l'épisode « Ce qui fait l'homme», il représente une forme de vie authentique.
Mais je m'éloigne du sujet. S'il nous faut souligner l'extension des capacités des ordinateurs au cours de la dernière décennie, c'est pour la comparer avec celle dont nous aurions besoin pour organiser le stockage et la sortie des données dans le cadre du téléporteur. Bien sûr, elles sont sans commune mesure.
Calculons une simple estimation de la somme de données codées dans un corps humain moyen, en supposant toujours que celui-ci contient 1028 atomes. Il nous faut d'abord coder l'emplacement de chaque atome, ce qui requiert trois coordonnées, les repères x, y, z. Puis il nous faut enregistrer la position interne de chaque atome, les niveaux d'énergie des électrons, les éventuelles liaisons entre atomes constitutives de molécules, la vibration ou le déplacement de celles-ci, etc. Restons modestes, et admettons que nous pouvons rassembler et coder toutes les informations nécessaires en un kilo-octet de données. ( Ce qui correspond à une page de données tapées en double interligne.) Cela signifie qu'il nous faut à peu près 1028 kilo-octets pour stocker la structure d'un être humain dans le circuit modélisateur. Je vous rappelle que 102s, c'est 1 suivi de 28 zéros.
Comparons avec, mettons, la somme totale de données stockées dans tous les livres jamais écrits. Les bibliothèques les plus grandes contiennent plusieurs millions de volumes. Soyons généreux, et mettons qu'il existe un milliard de livres différents sur terre ( un livre pour cinq habitants de la planète en ce moment). Mettons que chaque livre contient l'équivalent de mille pages de caractères ( en comptant large), soit environ un mégaoctet. Pour stocker toutes les données contenues dans tous les livres jamais écrits, il faudrait disposer de 1012, soit environ un milliard de milliards de kilo-octets. Cela représente seize fois moins - soit un dix-millionième de milliardième - que la capacité de stockage nécessaire pour enregistrer une seule structure humaine. Un tel ordre de grandeur nous permet difficilement de réaliser l'énormité de la tâche. Recourons alors à une comparaison : le stockage à réaliser pour enregistrer une structure humaine, comparé aux données présentes dans tous les livres jamais écrits, est dix mille fois plus important que les données renfermées dans tous les livres jamais écrits ne le sont au regard des données contenues dans cette page.
Le stockage d'une telle quantité de données n'est pas, pour user d'un euphémisme cher aux physiciens, pas une mince affaire. À présent, les disques durs individuels qu'on trouve sur le marché représentent environ 10 gigaoctets, soit 10 000 mégaoctets de données. En admettant que chaque disque a une épaisseur d'environ dix centimètres, si nous empilons tous les disques nécessaires actuellement au stockage d'une structure humaine, la colonne ainsi créée couvrirait un tiers de la distance d'ici au centre de la galaxie - environ 10 000 années-lumière, ou environ cinq ans de voyage à bord de l' Entreprise, en vitesse de distorsion 9 !
Et pour récupérer ces données en temps réel, l'affaire n'est pas moindre. Actuellement, les mécanismes qui gèrent la transmission des données numériques convoient un peu moins de 100 mégaoctets par seconde. À ce rythme, il faudrait environ 2 000 fois l'âge présent de l'univers (environ 10 milliards d'années) pour transférer les données d'une structure humaine. On voit d'ici le suspens dramatique qui en résulte : Kirk et McCoy s'échappent de la colonie pénitentiaire de Rura Penthe. Vous ne disposez même pas de la durée de l'univers pour les remonter à bord du vaisseau, mais d'à peine quelques secondes (le temps qu'il faudra au geôlier pour charger son arme et la pointer sur eux) pour transférer un million de milliards de milliards de mégaoctets de données.
L'affaire est claire. Cette tâche dépasse de loin le «Projet du génome humain», en cours d'élaboration, qui entend scanner et enregistrer le code génétique que contiennent de minuscules hélices d'ADN humain. Cette entreprise met en jeu des milliards de dollars, prendra au moins une décennie, et exige qu'on lui consacre les ressources des laboratoires dans le monde entier. Vous pourriez imaginer que je ne mentionne cet argument que pour prouver davantage l'impossibilité du téléporteur. Pourtant, bien que le défi soit considérable, je pense que nous avons affaire à un domaine qui pourrait se montrer fructueux au xxm= siècle. Mon optimisme peut sembler relever d'une extrapolation du rythme actuel d'extension de la technologie informatique. En se référant au rythme d'expansion des années passées en matière de vitesse et de stockage, soit un décuplement chaque décennie, et en le divisant par 10 pour rester modeste, c'est-à-dire en admettant que nous sommes 21 fois en dessous de la réalité, on peut s'attendre à ce que dans 210 ans, à l'aube du xxm- siècle, nous ayons acquis la technologie informatique nous permettant, en termes de transfert de données, de résoudre le défi du téléporteur.
Bien sûr, je dis cela sans savoir par quels moyens. Il est clair que, pour réussir à stocker plus de 1025 kilo-octets de données dans un système à échelle humaine, chaque atome du système devra être exploité comme site mémoriel. La notion, en cours de développement, d'ordinateurs biologiques dans lesquels la dynamique moléculaire imite les processus numériques, et où les 1025 particules contenues dans un échantillon macrocospique agissent simultanément, me paraît des plus prometteuses à cet égard.
Un avertissement, cependant: je ne suis pas un spécialiste en informatique. Mon optimisme prudent ne reflète peut-être dès lors que mon ignorance. Cependant, je puise un certain réconfort dans l'exemple du cerveau humain, qui a des annéeslumière d'avance sur tous les systèmes informatiques actuels en matière de complexité et de profondeur. Si la sélection naturelle peut développer un tel système de stockage et de transfert de données, je crois que nous avons encore une grande marge de progression.

Quantique, qu'es aco?

Pour se replonger dans les eaux glacées de la réalité, deux mots suffisent : mécanique quantique. Au niveau microscopique, nécessaire pour scanner et pour recréer la matière dans le téléporteur, les lois de la physique sont gouvernées par les lois étranges, exotiques de la mécanique quantique, dans lesquelles les ondes se comportent comme des particules et les particules comme des ondes. Je ne vais pas vous faire ici un cours sur la mécanique quantique. Toutefois, le fond en est le suivant: à des échelles microscopiques, l'objet observé et le sujet observateur ne sont plus séparés. Prendre une mesure, c'est altérer un système, généralement pour toujours, Cette loi simple peut donner lieu à bien des théorèmes, mais son expression la plus célèbre est le principe d'incertitude de Heisenberg. Cette loi fondamentale - qui semble faire table rase de la notion classique du déterminisme en physique, mais seulement en apparence - divise le monde physique en deux groupes de quantités observables (un peu comme le yin et le yang): quelle que soit la technologie employée, il est impossible de mesurer certaines combinaisons de quantités observables avec la précision souhaitée. Sur une échelle microscopique, on peut mesurer la position d'une particule plus ou moins précisément. Toutefois, Heisenberg nous apprend que nous ne pouvons alors véritablement connaître sa vitesse de déplacement (ni, par extension, l'endroit où elle se trouvera à l'instant suivant). Nous pouvons nous assurer de l'état énergétique d'un atome avec la précision que nous voulons. Dès lors, nous ne pourrons déterminer exactement la durée pendant laquelle il demeurera dans cet état.
Ces relations sont au cœur de la mécanique quantique, et on ne pourra jamais en faire l'économie. Aussi longtemps que nous travaillerons sur des échelles qui impliquent les lois de mécanique quantique - échelles qui, selon toute apparence, sont plus grandes que l'échelle à laquelle les effets de la gravitation quantique deviennent visibles, à savoir 10-33 centimètres - nous ne pouvons passer outre.
Il existe un argument quelque peu spécieux, mais fort satisfaisant, qui jette un éclairage heuristique sur le principe d'incertitude. La mécanique quantique dote toutes les particules d'un comportement semblable à celui d'une onde, et les ondes manifestent une étrange caractéristique : elles ne sont perturbées que lorsqu'elles rencontrent des objets de taille supérieure à celle de leur longueur d'onde (la distance entre deux crêtes successives). Il suffit d'observer les vagues sur l'océan pour constater ce comportement. Un simple caillou dépassant à la surface de l'eau n'aura aucun effet sur l'apparence du ressac, mais un gros bloc de pierre laissera une zone d'eau apaisée dans son sillage.
Ainsi donc, si nous voulons «illuminer» un atome - faire rejaillir une source de lumière sur lui pour visualiser sa position-, il nous faudra projeter sur lui une lumière dont la longueur d'onde soit assez réduite pour être perturbée par l'atome. Toutefois, les lois de la mécanique quantique nous apprennent que les ondes de lumière sont constituées de petits assemblages, ou «quanta», que nous appelons des photons ( oui, comme les torpilles à photons sur les vaisseaux spatiaux, encore qu'elles n'aient rien à voir avec ces photons-là). Chaque proton qui compose les longueurs d'onde est doté d'une énergie inversement proportionnelle à cette longueur d'onde. Plus la résolution recherchée sera grande, plus nous devrons utiliser une longueur d'onde réduite. Plus celle-ci sera réduite, plus l'énergie des doses augmentera. Si nous bombardons un atome avec un photon à haute énergie pour l'observer, nous pouvons nous assurer exactement de la position de l'atome au moment où le photon l'a heurté, mais le processus d'observation luimême - le choc entre photon et atome - transférera immanquablement une énergie importante à l'atome, modifiant sa vitesse et sa direction.
C'est pourquoi il est impossible de déterminer la configuration des atomes et de leur énergie avec une précision suffisante pour recréer exactement un schéma humain. Une marge d'incertitude concernant quelques données de l'observation est inévitable. Les conséquences de ce fait quant à la précision du produit humain reconstitué après téléportation est une question biologique ardue sur laquelle je ne peux que spéculer.
Ce problème n'a pas échappé aux auteurs de Star Trek, bien conscients des contraintes inévitables que la mécanique quantique faisait peser sur le téléporteur. Pourtant, ils disposaient d'un atout dont les physiciens ne peuvent habituellement se réclamer, à savoir la liberté artistique, et ils introduisirent des « compensateurs de Heisenberg» permettant une « résolution quantique» des objets. Lorsqu'un journaliste demanda au consultant technique de Star Trek, Michael Okuda, comment marchaient les compensateurs de Heisenberg, Okuda se contenta de répondre : « Très bien, merci ! »
Les compensateurs de Heisenberg ont une autre fonction fort utile dans le déroulement des intrigues. On peut se demander, et je l'ai fait, pourquoi le téléporteur ne duplique pas les formes de vie. Après tout, il existe à bord des vaisseaux des duplicateurs qui, sur simple commande vocale, font surgir comme par magie des verres d'eau ou de vin dans les cabines des membres d'équipage. En fait, il semble que la technologie de duplication ne soit possible que dans des << résolutions d'ordre moléculaire» et non quantique. Voilà qui, supposent-on, explique pourquoi le clonage humain est chose impossible. Cela explique peut-être aussi pourquoi l'équipage se plaint continuellement que la nourriture dupliquée ne soit pas aussi goûteuse que le produit authentique, et pourquoi Riker, notamment, préfère se faire cuire des omelettes et autres petits plats fins à l'ancienne.

Voir, c'est croire

Mais voici le dernier défi posé par la téléportation - comme si on n'en avait pas assez comme cela! Téléporter un objet n'est pas chose aisée. Le remonter peut se révéler plus ardu encore. Pour ramener un membre d'équipage à bord de l'Entreprise, les senseurs placés sur ce dernier doivent repérer sa position sur la planète située au-dessous du vaisseau. Plus difficile encore, ils doivent scanner l'individu avant de le dématérialiser et de transporter le flot de matière. L' Entreprise doit donc disposer d'un télescope assez puissant pour déterminer la composition atomique des objets sur, et souvent même en dessous de la surface de la planète. De fait, on nous apprend que le champ opératoire normal du téléporteur est approximativement de 40 000 kilomètres, soit trois fois le diamètre de la Terre. Nous nous baserons sur ce nombre pour faire les estimations suivantes.
Tout le monde a vu en photo les dômes des télescopes les plus puissants du monde, comme le télescope Keck à Hawaï, le plus grand du monde, ou le télescope de mont Palomar en Californie. Vous êtes-vous jamais demandé pourquoi on fabriquait des télescopes toujours plus grands? (Ce n'est pas par simple obsession du gigantisme, comme certaines personnes, dont nombre de membres du Congrès américain, aiment à en faire reproche à la science.) De même que l'on requiert des accélérateurs toujours plus puissants pour sonder la structure de la matière à des échelles toujours plus réduites, de même l'on requiert des télescopes toujours plus grands si l'on veut distinguer des objets célestes toujours plus éloignés. Ce raisonnement est simple : parce que la lumière est une onde, toutes les fois qu'elle passe à travers une ouverture elle tend à se diffracter, c'est-à-dire s'étaler un peu. Lorsque la lumière émanant d'une source éloignée traverse la lentille du télescope, l'image s'étale un peu, si bien qu'au lieu de voir clairement le point de source on voit un petit disque de lumière brouillé. De même, si deux points de source sont rapprochés sur la ligne de vue, de sorte que la distance entre eux est inférieure à la taille de leurs disques respectifs, il sera impossible de les percevoir comme objets séparés, puisque leurs disques se chevaucheront dans l'image observée. Ces disques, les astronomes les appellent des disques apparents. Plus la lentille est large, plus le disque apparent est petit. Pour observer distinctement des objets de plus en plus petits, il faut des lentilles de plus en plus grandes.
Un autre critère entre en jeu dans l'observation de petits objets par télescope. La longueur d'onde de la lumière, ou de toute radiation utilisée comme sonde, doit être plus petite que la taille de l'objet que vous essayez de scanner. Ainsi, si vous voulez observer la matière à échelle atomique, à savoir quelques milliardièmes de centimètre, il vous faut utiliser une forme de radiation ayant une longueur d'onde inférieure à un milliardième de centimètre. Si vous optez pour des radiations électromagnétiques, il vous faudra faire usage de rayons X ou de rayons gamma. Cela risque de poser problème, parce qu'une telle radiation est nocive, et l'atmosphère de toute planète de catégorie M la filtrera et l'éliminera, comme le fait notre propre atmosphère. Le téléporteur devra dès lors faire usage de sondes non électromagnétiques, comme les neutrinos et les gravitons. Ce qui pose de nouveaux problèmes, mais nous nous en tiendrons là.
Dans tous les cas, on peut faire les calculs suivants : supposons que l' Entreprise utilise une radiation dont la longueur d'onde soit inférieure à un milliardième de centimètre pour scanner un objet éloigné de 40 000 kilomètres par résolution à échelle atomique. Pour y parvenir, le vaisseau aura besoin d'un télescope équipé d'une lentille d'un diamètre supérieur à 50 000 kilomètres ! Avec une lentille de taille inférieure, il sera impossible, même en principe, d'observer distinctement des atomes isolés. Même si l' Entreprise-D est une grande «mère» pour son équipage, il faut admettre qu'elle a ses limites.

Comme promis, notre réflexion sur les téléporteurs nous a conduits à travers la mécanique quantique, la physique des particules, l'informatique, les équations d'Einstein sur masse et énergie, et même l'existence de l'âme humaine. Il ne faut donc pas nous décourager outre mesure devant l'impossibilité apparente d'inventer un stratagème propre à remplir les fonctions requises. Restons positifs: la construction d'un téléporteur exigerait que nous chauffions la matière jusqu'à atteindre une température valant un million de fois celle qui règne au centre du Soleil, que nous consommions plus d'énergie dans une machine unique que toute l'humanité n'en consomme à l'heure où j'écris, que nous construisions des télescopes plus vastes que le diamètre de la Terre, que nous multipliions par mille milliards de milliards de fois les performances des ordinateurs, et que nous échappions aux lois de la mécanique quantique. Étonnons-nous après cela que le lieutenant Barclay frissonne à l'idée d'être téléporté! Je crois que même Gene Roddenberry, s'il devait affronter cette éventualité dans la vie courante, préférerait investir dans un vaisseau spatial équipé d'un bon train d'atterrissage.

6 - Pour 1 dollar d'énergie

« Il n'existe rien d'irréel. »
Premier axiome de la métaphysique de Kir-kin-tha
(Star Trek IV: Retour à la maison)

Si, en quittant Chicago, vous prenez l'Interstate 88 vers l'ouest, vous arriverez à Aurora 50 kilomètres plus loin: c'est alors que le paysage chaotique et tentaculaire de la ville s'efface devant la douce prairie du Midwest, dont l'étendue plane s'étend à l'infini, aussi loin que porte le regard. Un peu au nord de l'lnterstate, à cet endroit, se trouve un lopin de terre délimité par ce qui ressemble à un fossé circulaire. À l'intérieur de cette propriété, on peut voir des bisons brouter l'herbe, et maintes espèces de canards et d'oies sur des étangs.
À vingt pieds de profondeur, fini l'atmosphère calme et pastorale qui régnait à la surface du sol. Quatre cent mille fois par seconde, un rayonnement intense d'antiprotons heurte un intense rayonnement de protons de plein fouet, produisant une pluie de cent et de mille particules secondaires : électrons, positrons, pions et autres.
Il s'agit là du Fermi National Accelerator Laboratory (Fermilab, pour abréger), qui dispose de l'accélérateur de particules le plus puissant du monde. En ce qui concerne nos préoccupations, c'est également le plus vaste entrepôt d'antiprotons. Ici, l'antimatière n'est pas simple objet de science fiction. C'est le pain quotidien de milliers de scientifiques qui utilisent pour leurs recherches les installations du Ferrnilab.
C'est en ce sens que le Fermilab et l'uss Entreprise présentent une certaine parenté. L'antimatière est un élément crucial pour le bon fonctionnement d'un astronef, puisqu'elle fournit l'énergie nécessaire à la vitesse de distorsion. Comme je l'ai déjà mentionné, il n'est pas de façon plus efficace d'actionner un système de propulsion (bien que le pilotage en vitesse de distorsion ne repose pas sur la propulsion par réacteur). L'antimatière et la matière, lorsqu'elles entrent en contact, peuvent s'annihiler complètement et produire une pure radiation, laquelle se déplace à la vitesse de la lumière.
Bien évidemment, il faut déployer de grandes précautions pour «conserver» l'antimatière stockée en grande quantité. Lorsque le système de conservation de l'antimatière tombe en panne à bord des astronefs, par exemple après que l' Entreprise s'est heurté au Bozeman, ou que le système à bord du Yamato a succombé à l'arme informatique des Iconiens, on ne peut s'attendre qu'à une rapide et totale destruction. De fait, la conservation de l'antimatière est un paramètre si fondamental dans les opérations spatiales qu'on ne comprend pas bien comment le lieutenant en chef Deanna Troi peut ignorer les conséquences d'une panne du système de conservation lorsqu'elle prend, pour un bref instant, les commandes de l' Entreprise dans l'épisode de la Nouvelle génération intitulé «Désastre», à la suite d'une collision entre le vaisseau et deux «filaments quantiques». Le fait qu'elle soit psychologue de formation ne saurait tout excuser !
Le système de conservation à bord des vaisseaux est chose plausible, et repose de fait sur le même principe que celui qui permet au Fermilab de stocker des antiprotons sur de longues périodes. Les antiprotons et antiélectrons ( ou positrons) sont des particules chargées d'électricité. Mises en présence d'un champ magnétique, ces particules se déplacent en orbite circulaire. Si elles sont accélérées dans des champs magnétiques, et si ensuite un champ magnétique de force appropriée est mis en action, les antiparticules se déplaceront en des cercles de diamètre prédéterminé. Par exemple, elles pourront se déplacer en rond à l'intérieur d'un réservoir en forme de doughnut (beignet en forme d'anneau) sans jamais heurter les parois. Ce principe est également utilisé dans les systèmes dits Tokomak, · qui conservent les plasmas à haute température dans les analyses de fusion nucléaire sous contrôle.
La Source d'antiprotons pour le collisionneur du Fermilab comporte un large anneau d'aimants. Une fois que les antiprotons sont produits dans des collisions à moyenne énergie, ils sont détournés vers cet anneau, où ils peuvent être stockés en attendant qu'on en ait besoin pour les collisions à haute énergie, qui ont lieu dans le Tevatron, le collisionneur à haute énergie du Fermilab. Le Tevatron est un anneau aux dimensions bien supérieures, d'environ 6 kilomètres de circonférence. Les protons et les antiprotons y sont introduits et accélérés dans une direction, tandis que les antiprotons sont accélérés dans la direction opposée. Si le champ magnétique est ajusté avec précision, ces deux rayonnements de particules peuvent être tenus séparés sur la plus grande partie de leur trajet dans le tunnel. À des points précis, toutefois, les deux rayonnements convergent et les collisions sont étudiées.

En plus de la conservation, un problème surgit dès que nous voulons faire usage d'un moteur actionné par le mélange matière-antimatière. À ce que nous savons, l'univers est composé principalement de matière et non d'antimatière. Cette idée se confirme si l'on observe le contenu des rayons cosmiques à haute énergie, dont beaucoup naissent à une grande distance de notre galaxie. Certaines antiparticules devraient naître des collisions entre les rayons cosmiques à haute énergie, et si l'on explore les signatures des rayons cosmiques sur de larges bandes d'énergie, le signal d'antimatière est entièrement cohérent avec ce seul phénomène : aucun composant primordial d'antimatière n'est visible.
Un autre signe possible de la présence d'antimatière dans l'univers serait l'indice d'annihilation des collisions entre particules et antiparticules. Chaque fois que les deux se retrouvent ensemble, on pourrait s'attendre à voir les radiations caractéristiques émises au cours du processus d'annihilation. De fait, c'est grâce à ces radiations que !'Entreprise traque l'Entité cristalline après qu'elle eut détruit un nouveau poste avancé de la Fédération. Apparemment, l'Entité laisse derrière elle une piste d'antiprotons. En recherchant la radiation produite par l'annihilation, l'Entreprise suit l'Entité à la trace et la rattrape avant qu'elle n'ait pu attaquer une autre planète.
Si les auteurs de Star Trek ont bien compris le principe, ils se sont trompés dans le détail. Le Dr Marr et Data recherchent un pic de « radiation gamma» de « 10 ke V» - à savoir 10 kiloélectronvolts, qui est une unité d'énergie produite par une radiation. Malheureusement, c'est la mauvaise échelle énergétique pour l'annihilation réciproque des protons et antiprotons - et de fait, elle ne correspond à aucun signal d'annihilation connu. La particule qui possède la masse la moins élevée est l'électron. Si les électrons et les positrons s'annihilent, ils produisent un pic de radiation gamma de 511 keV, qui correspond à la masse de l'électron. Les protons et les antiprotons produisent un pic dont l'énergie correspond à l'énergie au repos du proton, soit environ 1 geV (gigaélectronvolt), c'est-à-dire environ mille fois la somme d'énergie recherchée par le Dr Marr et Data. (Au passage, précisons que la quantité 10 ke V relève de la bande de radiation X, et non de la bande de radiation gamma, qui correspond en général à un excès de radiation d'environ 10 keV, mais ne chipotons pas sur ces petits détails.)
Dans tous les cas, les astronomes et les physiciens ont recherché des signaux de fond diffus d'environ 511 keV et de l'ordre du geV comme signaux de conflagrations importantes entre matière et antimatière, mais sans jamais les trouver. Ces éléments, et les examens des rayons cosmiques indiquent que, même si l'antimatière était copieusement distribuée dans l'univers, elle ne serait pas émaillée de matière ordinaire.

Comme la plupart d'entre nous s'accommodent bien mieux de la matière que de l'antimatière, il peut paraître beaucoup plus naturel que l'univers soit composé de la première et non de la seconde. Pourtant, il n'y a rien de naturel à cela. De fait, si la matière est plus répandue que l'antimatière, c'est à cause de ce qui constitue actuellement l'un des problèmes irrésolus de la physique, et demeure l'objet d'intenses recherches: cela importe beaucoup à notre existence, et par extension à celle de Star Trek, et une pause est ici nécessaire pour passer le problème en revue.
Dès ses débuts, la mécanique quantique a été appliquée avec succès aux phénomènes relevant de la physique atomique: elle a notamment rendu compte à merveille du comportement des électrons dans les atomes. Cependant, l'une des limites de ce champ d'expérimentation est que les électrons ont des vitesses de déplacement en général bien inférieures à celle de la lumière. Il fallut encore deux décennies pour harmoniser les effets de la relativité restreinte avec la mécanique quantique. Ce délai tient au fait que, contrairement à la relativité restreinte, dont les applications ne posent pas de problèmes, la mécanique quantique ne supposait pas seulement une toute nouvelle perspective sur le monde, mais un vaste déploiement de nouvelles approches mathématiques. Les meilleurs jeunes cerveaux physiciens purent consacrer les trois premières décennies de ce siècle à explorer cette nouvelle vision de l'univers.
L'un de ces cerveaux était Paul Adrien Maurice Dirac. Comme son successeur Stephen Hawkins, et par la suite Data, il devait occuper un jour la chaire de l'université de Cambridge. Formé par Lord Rutherford, puis par Niels Bohr, Dirac était mieux préparé que la plupart de ses collègues à étendre la mécanique quantique au royaume des vitesses extrêmes. En 1928, comme Einstein avant lui, il rédigea une équation qui devait changer le monde. L'équation de Dirac décrit correctement l'attitude relative des électrons en termes purement quantiques.
Peu après avoir écrit cette équation, Dirac réalisa que, pour rester cohérentes, les mathématiques devaient présupposer l'existence d'une particule de charge égale, mais inverse à celle de l'électron. Bien sûr, on connaissait déjà une particule répondant à ces critères: le proton. Toutefois, l'équation de Dirac suggérait que cette particule devait avoir la même masse que l'électron, quand le proton est environ deux mille fois plus lourd. Ce décalage entre l'observation et l'interprétation «naïve» des mathématiques resta mystérieuse pendant quatre ans, jusqu'à ce que le physicien Carl Anderson découvre, parmi les rayons cosmiques bombardant la Terre, une nouvelle particule dont la masse était identique à celle de l'électron, mais dont la charge était inverse, c'est-à-dire positive. Cet « anti-électron » fut bientôt connu sous le nom de positron.
Depuis, il a été établi que l'une des conséquences inévitables de cette fusion entre relativité restreinte et mécanique quantique est que toutes les particules présentes dans la nature doivent posséder des antiparticules, dont la charge électrique (si elles en ont une) et les autres propriétés doivent être inverses de celles des particules qui leur correspondent. Si à toute particule correspond une antiparticule, alors les dénominations « particule» et« antiparticule» sont totalement arbitraires, puisque aussi bien aucun processus n'a jusqu'ici fait prévaloir les particules sur les antiparticules. Dans l'univers classique de l'électromagnétisme et de la gravité, un tel processus ne saurait exister.
Voilà qui nous laisse dans l'embarras. Si les particules et les antiparticules sont sur un pied d'égalité, pourquoi les conditions initiales qui déterminèrent l'univers auraient-elles assigné à ce que nous nommons «particules» une place prédominante au sein de la matière? Une condition initiale plus rationnelle ou du moins plus symétrique aurait réparti également particules et antiparticules. Dans ce cas, il nous faut expliquer comment les lois de la physique, qui, apparemment, ne distinguent pas les particules des antiparticules, ont pu d'une façon ou d'une autre contribuer à produire un type plus que l'autre. Soit il existe dans l'univers une quantité originelle déterminant la proportion de particules et d'antiparticules, et à laquelle les lois de la physique ne peuvent en rien déroger, soit nous devons expliquer le paradoxe qu'il y a à voir la création dynamique d'une matière l'emporter en quantité sur l'antimatière.
Dans les années soixante, le célèbre scientifique et dissident russe André Sakharov avança une modeste suggestion. Il affirma qu'il était possible, si trois conditions physiques étaient remplies au commencement de l'univers, d'expliquer de façon dynamique l'asymétrie entre matière et antimatière, quand bien même elle n'aurait pas existé à l'origine. À l'époque où cette suggestion fut faite, aucune théorie physique ne pouvait remplir les trois conditions posées par Sakharov. Toutefois, dans les années qui suivirent, la physique des particules et la cosmologie firent des pas de géant. À présent, un grand nombre de théories peuvent, en principe, rendre compte directement de la différence quantitative observée dans la nature entre matière et antimatière. Malheureusement, toutes exigent une nouvelle approche de la physique, et de nouvelles particules élémentaires, pour être efficaces. Jusqu'à ce que la nature nous montre la bonne direction, nous ne saurons pas laquelle choisir. Néanmoins, nombre de physiciens, dont moimême, trouvent un grand réconfort dans l'idée que nous serons un jour à même de démontrer à partir de principes premiers pourquoi la matière qui fonde notre existence prédomine.
Maintenant, à supposer que nous ayons trouvé la bonne théorie, comment calculer la quantité de matière? Au début de l'univers, quel surcroît de protons, par rapport aux antiprotons, aurait-il dü y avoir pour expliquer l'excédent de matière qu'on observe aujourd'hui dans l'univers? Nous en trouverons un indice en comparant la quantité de protons à ce jour à celle des photons, les particules élémentaires qui constituent la lumière. Si l'univers, à son commencement, est parti d'un nombre égal de protons et d'antiprotons, les deux se sont annihilés réciproquement, produisant de la radiation, donc des photons. Chaque annihilation réciproque entre protons et antiprotons a produit environ un couple de photons. Toutefois, si l'on suppose que les protons excédaient légèrement les antiprotons, tous les protons n'ont pas été annihilés. En comptant le nombre de protons épargnés une fois les annihilations achevées, et en comparant ce chiffre avec le nombre de photons produits par ces annihilations (à savoir le nombre de photons présents dans la radiation de fond produite par le Big Bang), nous pouvons nous faire une idée de l'excédent fractionnel de matière par rapport à l'antimatière, au début de l'univers.
Nous découvrons que, aujourd'hui, il faut compter en gros 1 proton pour 10 milliards de photons dans la radiation de fond cosmique. Ce qui signifie qu'à l'origine l'excédent de protons n'était que de 1 pour 10 milliards! Pour 10 milliards d'antiprotons dans l'univers à son commencement, il y avait 10 milliards et 1 protons! Même cet excédent minuscule (accompagné d'un excédent semblable en neutrons et en électrons par rapport à leurs antiparticules correspondantes) aurait suffi à produire toute la matière qu'on observe aujourd'hui dans l'univers -les étoiles, les galaxies, les planètes - tout ce que nous avons appris à connaître et à aimer.
Voilà, pensons-nous, pourquoi l'univers a finalement été composé de matière et non d'antimatière. Indépendamment de son intérêt intrinsèque, la morale de cette histoire, en ce qui concerne Star Trek, est que, pour fabriquer un moteur fonctionnant à base d'un mélange matière-antimatière, on ne saurait tirer l'antimatière de l'espace, car l'espace n'en contient guère. Il faudra la fabriquer soi-même.
Pour le mode d'emploi, retournons aux bisons qui errent sur la plaine du Midwest, au-dessus de l'accélérateur du Fermilab. Alors que je réfléchissais sur la logistique de ce problème, j'ai décidé de contacter le directeur du Fermilab, John Peoples Jr., qui a dirigé la conception et la construction de la Source d'antiprotons. Je lui ai demandé de m'aider à déterminer combien d'antiprotons on pouvait produire et stocker pour 1 dollar, au cours actuel du dollar. Il accepta gracieusement de m'aider et me fit parvenir par quelques collaborateurs les renseignements utiles à des fins d'estimation raisonnable.
Le Fermilab produit des antiprotons en provoquant des collisions à moyenne énergie entre protons, sur une cible de lithium. De temps à autre, ces collisions produisent un antiproton qui est acheminé dans l'anneau de stockage, juste en dessous du bison. À un rythme ordinaire, le Fermilab produit environ 50 milliards d'antiprotons par heure. Si l'on suppose que la Source d'antiprotons opère pendant les trois quarts de l'année, cela nous fait environ 6 000 heures. Le Fermilab produit donc environ 300 000 milliards d'antiprotons dans une année normale.
Les composants de l'accélérateur du Fermilab qui contribuent directement à la production d'antiprotons coûtent environ 500 millions de dollars (au cours de 1995). Si l'on amortit ce coût sur une durée active de vingt-cinq ans, cela nous donne 20 millions par an. Le coût de fonctionnement du personnel (ingénieurs, scientifiques, employés) et des appareils est d'environ 5 millions par an. Enfin, les coûts administratifs supplémentaires sont d'environ 15 millions par an. Le total s'élève à environ 48 millions de dollars par an pour produire les 300 000 milliards d'antiprotons utilisés chaque année par le Fermilab pour sonder la structure fondamentale de la matière dans l'univers, soit 6 millions d'antiprotons pour 1 dollar!
Ce coût est sans doute supérieur à ce qu'il devrait être. Le Fermilab produit un rayonnement d'antiprotons à haute énergie et, si nous n'avions besoin que des antiprotons et non des hautes énergies, nous pourrions diviser les coûts par deux, voire par quatre. Soyons généreux, et supposons qu'en utilisant la technologie on pourrait obtenir de 10 à 20 millions d'antiprotons pour 1 dollar, en gros.
La question suivante est évidente : pour 1 dollar, combien aurons-nous d'énergie? Si nous convertissons tout à fait la masse d'antiprotons obtenue avec 1 dollar, nous produirons environ 1 millième de joule, ce qui représente la somme d'énergie nécessaire pour chauffer environ 1/4 de gramme d'eau à environ 1 millième de degré Celsius. Pas de quoi crier hourra ...
Peut-être nous représenterons-nous mieux les capacités potentielles de la Source d'antiprotons du Fermilab comme le noyau du distordeur en calculant combien d'énergie pourrait être générée si nous exploitions la somme entière des antiprotons générés par la Source en temps réel. La Source d'antiprotons produit 50 milliards d'antiprotons par heure. Si tous ces antiprotons étaient convertis en énergie, ils fourniraient une puissance d'environ 1 millième de watt! Ou, pour le dire d'une autre façon, il vous faudrait faire tourner environ 100 000 Sources d'antiprotons pour alimenter une seule ampoule de 100 watts ! Étant donné son coût annuel de 48 milliards de dollars, il faudrait consacrer une somme supérieure au budget annuel du gouvernement américain pour éclairer ainsi sa chambre à coucher.

Le gros problème, c'est que, dans la situation actuelle, il faut beaucoup plus d'énergie pour produire un antiproton qu'on en obtient en reconvertissant sa masse au repos en énergie. L'énergie perdue au cours du processus de production est sans doute supérieure d'au moins un million de fois à l'énergie stockée dans la masse de l'antiproton. Il faudrait recourir à des moyens de production d'antimatière nettement plus efficaces avant de considérer simplement l'exploitation de moteurs fonctionnant par le mélange de matière et d'antimatière.
Il est non moins clair que, si l' Entreprise devait fabriquer sa propre antimatière, il lui faudrait inventer une vaste technologie à grande échelle - pas simplement pour réduire les coûts, mais pour réduire l'espace. Si les techniques d'accélération devaient être utilisées, il faudrait avoir recours à des machines produisant beaucoup plus d'énergie par mètre que celles d'aujourd'hui. J'ajouterai que ce point fait actuellement l'objet d'intenses recherches. Si l'on veut que les accélérateurs de particules, nos seuls instruments pour explorer directement la structure fondamentale de la matière, ne deviennent pas trop coûteux à construire même pour des consortiums internationaux, il faut développer de nouvelles technologies d'accélération des particules élémentaires. (Nous avons déjà vu que notre propre gouvernement a décidé qu'il serait trop cher de construire un accélérateur nouveau modèle dans ce pays, et c'est pourquoi un groupe européen va en construire un à Genève, qui sera opérationnel dès le début du xxr' siècle.) Les évolutions passées de la production d'énergie par mètre grâce à un accélérateur suggèrent qu'on peut, tous les dix ou vingt ans, multiplier par dix les résultats obtenus. Aussi peut-on raisonnablement supposer l'invention, dans quelques siècles, d'un accélérateur produisant suffisamment d'antimatière pour alimenter un vaisseau spatial. Étant donné les réticences actuelles du gouvernement à financer une recherche fondamentale coûteuse à cette échelle, un tel optimisme n'est peut-être pas de mise, mais d'ici deux siècles nombre de changements politiques peuvent se produire.
Toutefois, même si on devait fabriquer de l'antimatière à bord du vaisseau, il faudrait encore prendre en compte le fait que la production de chaque antiproton consommerait invariablement une énergie bien supérieure à celle que l'on pourrait en tirer par la suite. Qui aurait envie de consacrer cette énergie à produire de l'antimatière, quand on peut la transformer directement en propulsion?
Les auteurs de Star Trek, toujours astucieux, ont examiné le problème. Leur réponse fut simple. L'énergie présente sous d'autres formes pouvait, certes, être utilisée pour la propulsion des moteurs ordinaires, mais seules les réactions produites par l'annihilation réciproque de la matière et de l'antimatière pouvaient alimenter le passage en vitesse de distorsion. Et puisque celle-ci peut seule tirer d'affaire un vaisseau en danger, en le faisant se déplacer bien plus rapidement que la vitesse de propulsion, il valait la peine de dépenser un peu plus d'énergie pour produire de l'antimatière. Les auteurs contournèrent par ailleurs les problèmes liés à la production d'antimatière par accélération en inventant une nouvelle méthode pour produire de l'antimatière. Ils suggérèrent un hypothétique « système d'inversion quantique» qui se contentait d'inverser les charges des particules élémentaires, si bien qu'on pouvait produire des antiprotons et des neutrons à partir de protons et de neutrons. Selon le Manuel technique de la Nouvelle génération, alors même que ce processus est susceptible de produire une incroyable quantité d'énergie, la perte d'énergie nette est de seulement 24 % , soit un ordre de grandeur inférieur à celui posé ci-dessus au sujet du processus d'accélération.
Tout cela est bien beau, mais il ne suffit malheureusement pas d'inverser la charge électrique d'un proton. Ainsi, neutrons et antineutrons sont tous deux neutres. Les antiparticules ont toutes des « nombres quantiques» ( ces nombres sont des étiquettes qui décrivent leurs propriétés) exactement opposés à ceux de leurs correspondants matériels. Puisque les quarks qui constituent les protons ont bien d'autres étiquettes que leur charge, il faudrait instituer bien d'autres « systèmes d'inversion quantiques» pour compléter la transition de matière à antimatière.
Quoi qu'il en soit, on nous apprend dans le manuel technique que, excepté lorsqu'il faut en produire en toute urgence à bord des vaisseaux spatiaux, toute l'antimatière dont se sert la Flotte fédérale est produite sur la base, dans les installations de ravitaillement en combustible. Ici, les antiprotons et les antineutrons sont combinés pour former les noyaux de l'hydrogène a-pesant. Ce qui est particulièrement amusant, c'est que les ingénieurs de la Flotte ajoutent ensuite des antiélectrons (ou positrons) à ces noyaux chargés d'électricité pour faire des atomes d'hydrogène a-pesant neutres, sans doute parce que les atomes antineutres sont, aux yeux des auteurs de la série, plus faciles à manier que des antinoyaux chargés d'électricité. De fait, on n'a encore créé jusqu'ici aucun antiatome dans les laboratoires, bien que des rapports récents venus de Harvard suggèrent que nous sommes, en cette décennie, sur le point de produire un atome d'anti-hydrogène. Malheureusement, cela soulève de gros problèmes en matière de conservation, puisque les champs magnétiques, qui sont absolument essentiels pour manipuler des quantités substantielles d'antimatière sans provoquer de catastrophe, ne fonctionnent qu'avec des objets dotés d'une charge électrique! Bon, retour au tableau noir ...
La capacité totale d'un vaisseau spatial en carburant à base d'antimatière est d'environ 3 000 mètres cubes, contenus dans des fuseaux de stockage (sur le pont 42, en ce qui concerne l'Entreprise-D). Il paraît que c'est suffisant pour une mission de trois ans. Juste pour s'amuser, calculons combien d'énergie on pourrait tirer de cette somme d'antimatière si on la stockait sous forme de noyaux d'hydrogène a-pesant/antihydrogène lourd. Je suppose que les noyaux sont transportés sous forme de plasma gazéifié, ce qui est sans doute plus facile à conserver dans un champ magnétique qu'un liquide ou un solide. Dans ce cas, 3 000 mètres cubes correspondraient à environ 5 millions de grammes de matériau. Si les réactions d'annihilation consommaient un gramme par seconde, l'énergie produite équivaudrait à la somme totale d'énergie produite actuellement chaque jour par le genre humain. Comme je l'ai indiqué plus haut en analysant le pilotage en vitesse de distorsion, il faut être prêt à produire au moins cette somme d'énergie à bord d'un vaisseau spatial. On pourrait continuer à s'alimenter avec ce carburant spécial à ce rythme pendant 5 millions de secondes, soit environ deux mois. En supposant qu'un vaisseau spatial ait besoin de faire appel au mélange de matière et d'antimatière pendant 5 % du temps que durent ses missions, on pourrait calculer la quantité requise pour un voyage de trois ans.
Notons aussi ce fait significatif quant à la somme d'antimatière requise pour produire de l'énergie: l'annihilation réciproque de la matière et de l'antimatière se produit ou ne se produit pas, mais on ne peut la moduler à son gré. En modifiant la proportion de matière par rapport à l'antimatière pour un pilotage à vitesse de distorsion, on ne change pas le niveau absolu de puissance générée. Le rapport entre puissance relative et carburant ne diminuera que si une partie du carburant est gâchée, c'est-à-dire si quelques particules de matière ne réussissent pas à trouver l'antimatière qui les annihilera, ou si la collision ne provoque pas l'annihilation. Dans plusieurs épisodes («Le temps mis à nu», «L'enfant de la galaxie», «La peau du mal»), on modifie les proportions de matière et d'antimatière, et dans le manuel technique de Star Trek, ces proportions, nous dit-on, varient continuellement de 25 pour 1 à 1 pour 1, lorsqu'il s'agit de déterminer la vitesse de distorsion : la proportion 1 à 1 est utilisée pour atteindre le niveau 8 de distorsion, ou un niveau encore supérieur. Dans ce dernier cas, la quantité des produits soumis à réaction est augmenté, et la proportion reste la même. Cette modification des quantités, et non des proportions, représente la procédure normale dans tous les cas, et même les cadets de la Flotte devraient le savoir. Wesley Crasher a souligné ce fait en notant, dans l'épisode « L'âge de raison», que la question d'examen de la Flotte interstellaire sur le rapport entre matière et antimatière était un piège : il n'y a qu'une réponse, à savoir 1 pour 1.

Enfin les auteurs de Star Trek ont ajouté un élément crucial à la question du pilotage en vitesse de distorsion. Je veux parler du fameux cristal de dilithium (inventé, c'est une coïncidence, par les auteurs bien avant que les ingénieurs du Fermilab ne décident d'utiliser une cible en lithium dans leur Source d'antiprotons). Il serait impensable de ne pas le mentionner, puisqu'il constitue un élément central du pilotage en vitesse de distorsion, et qu'il occupe une place éminente dans l'économie de la Fédération et dans les péripéties de plusieurs épisodes. (Sans l'importance économique du dilithium, l' Entreprise n'aurait jamais été dépêchée dans le système halkan pour y faire reconnaître ses droits miniers, et nous n'aurions jamais eu droit à « l'univers en miroir», où la Fédération est devenue l'empire du mal!)
Quel est leur rôle, à ces remarquables inventions nées de l'imagination des auteurs de Star Trek? Ces cristaux ( connus également sous une formule plus développée-2(5)6 dilithium 2( :)1 diallosilicate 1 :9 :1 heptoferranide) peuvent réguler le rythme d'annihilation réciproque de la matière et de l'antimatière, car ils représentent l'unique forme de matière « perméable» à l'antimatière.
Voici, en gros, comment je me figure la situation: les cristaux sont des atomes régulièrement disposés dans un lacis; je considère donc que les atomes d'antihydrogène sont filetés à travers les lacis des cristaux de dilithium, et dès lors restent à une distance fixe, aussi bien des atomes constituant la matière normale que les uns par rapport aux autres. De cette façon, le dilithium peut réguler la densité d'antimatière, et donc le taux de réaction du mélange matière-antimatière.
La raison pour laquelle je me donne la peine d'inventer une explication hypothétique à l'utilité d'un matériel non moins hypothétique est qu'une fois encore je prétends que les auteurs de Star Trek étaient en avance sur leur temps. Un raisonnement similaire, du moins dans l'esprit, fut proposé des années après que Star Trek avait introduit l'annihilation réciproque entre matière et antimatière modulée par le dilithium, pour justifier un processus non moins exotique : la fusion à froid. L'idée d'une fusion à froid connut un succès qui dura environ six mois: on suggérait alors qu'en produisant une alliance chimique entre divers éléments on pouvait d'une façon ou d'une autre provoquer une réaction des noyaux bien plus rapide qu'elle ne le serait dans des conditions normales, et dès lors produire à une température ordinaire les mêmes réactions de fusion que le Soleil, qui requiert, lui, de grandes densités et des températures supérieures à un million de degrés pour faire de même.
L'une des nombreuses impossibilités inhérentes aux raisonnements portant sur la fusion à froid, et qui éveilla la suspicion des physiciens, c'est que les réactions chimiques et la liaison interatomes ont lieu à des échelles d'ordre atomique, 10 000 fois plus grandes que la taille des noyaux de l'atome. Il était difficile de croire que des réactions se produisant à des échelles tellement supérieures à celle des dimensions atomiques pourraient affecter les taux de réaction nucléaire. Néanmoins, jusqu'à ce qu'on ait réalisé que les résultats prédits ne pouvaient être reproduits par d'autres groupes, beaucoup de gens consacrèrent beaucoup de temps à essayer de représenter les modalités d'un tel prodige.
Puisque les auteurs de Star Trek, à l'inverse des partisans de la fusion à froid, n'ont jamais prétendu écrire autre chose que de la science-fiction, je pense qu'il faut accepter de relâcher un peu notre censure à leur égard. Après tout, les réactions modulées par le dilithium ne font que contribuer à ce qui, sans aucun doute, est l'aspect le plus manifestement réaliste de la technologie spatiale : la conduite à base d'un mélange de matière et d'antimatière. Je pourrais ajouter que les cristaux - le tungstène, et non le dilithium - sont bel et bien utilisés pour modérer ou ralentir les rayonnements d'antiélectrons ( ou positrons) dans les expériences modernes, au cours desquelles les antiélectrons se dispersent hors du champ électrique et, gagnant le cristal, perdent leur énergie.
L'univers ne nous permettra jamais de récupérer la mise autrement qu'en prenant une particule et en l'annihilant dans une collision avec son antiparticule, afin de produire une énergie de radiation pure. C'est tout ce que nous pouvons obtenir dans les technologies de propulsion par réacteur, et nous y aurons sûrement recours si jamais nous poussons jusqu'à l'extrême la logique de nos réacteurs. Il nous en coûtera un certain nombre de dollars, mais ce problème regarde les politiciens du xxm= siècle.

7 - Holodecks et hologrammes

« Oh, nous sommes nous, monsieur. Eux aussi sont
nous. C'est donc que nous sommes tous les deux nous.»
Data à Picard et Riker,
dans l'épisode «Nous aurons toujours Paris»

Lorsque Humphrey Bogart dit à Ingrid Bergman, à l'aéroport de Casablanca: «Nous aurons toujours Paris», il fait bien sûr référence à leur souvenir commun de Paris. Lorsque Picard dit la même chose à Jenice Mannheim au Café des artistes, qu'ils ont recréé sur le holodeck, il le dit de façon bien plus littérale. Grâce au holodeck, des souvenirs peuvent être revécus en direct, des endroits de prédilection revisités, et des amours perdues redécouvertes - ou presque.
Le holodeck est l'une des réalisations technologiques les plus fascinantes qui se trouvent à bord de l' Entreprise. Pour tous ceux qui sont familiers du jeune univers de la «réalité virtuelle», soit grâce aux jeux vidéo, soit par les ordinateurs modernes les plus sophistiqués et les plus rapides, les possibilités offertes par le holodeck sont particulièrement irrésistibles. Qui n'aurait pas envie d'entrer complètement et sans crier gare dans un monde géré uniquement par son imagination?
Cette idée est si séduisante qu'elle aurait, j'en suis certain, un succès encore plus important dans la réalité que dans la série. Nous avons quelques exemples d'accros du holodeck ( « holomaniaques ») dans les épisodes intitulés « Vaines poursuites» et «L'enfant de la galaxie». Dans le premier cas, l'irrésistible lieutenant névrosé Reginald Barclay s'accoutume à sa vision imaginaire des officiers supérieurs de l' Entreprise, au point qu'il préfère avoir affaire à eux sur le holodeck plutôt que partout ailleurs dans le vaisseau. Dans le second, lorsque Geordi LaForge, qui s'est épris du clone virtuel du Dr Leah Brahms - elle a conçu les machines du vaisseau -, rencontre la véritable Dr Brahms, les choses se compliquent.
Étant donné les divertissements plutôt cérébraux auxquels l'équipage s'adonne en général, on peut imaginer que les instincts hormonaux qui régulent l'humanité du xx= siècle auront quelque peu évolué d'ici le xxm- siècle (bien sûr, si c'est le cas, Will Riker n'est pas le meilleur représentant de son époque). Si je dois me fier à l'état du monde actuel, je me serais plutôt attendu à voir le sexe dominer presque entièrement les activités du holodeck. (De fait, le holodeck renouvelle la définition du safe sex.) Et là, je ne plaisante pas. Le holodeck incarne ce que les fantasmes, et notamment les fantasmes sexuels, comportent de plus séduisant : des actes sans conséquences, du plaisir sans douleur, et des situations qui peuvent être repétées et améliorées à volonté.
Les plaisirs virtuels cachés du holodeck ne sont que discrètement mentionnés au cours des épisodes. Par exemple, après avoir fait irruption de façon assez brutale sur le holodeck où Reg vivait ses fantasmes, Geordi admet: «J'ai passé quelques heures sur le holodeck, moi aussi. Pour ma part, je considère que vous pouvez y faire tout ce que vous voulez du moment que ça n'interfère pas avec votre travail.» Si ce n'est pas là une mise en garde très « xxs siècle» contre le danger de se laisser dominer par ses instincts charnels, alors je ne m'y connais plus.
Je suis certain que les explorations tâtonnantes de notre siècle en matière de réalité virtuelle nous mènent plus ou moins vers le holodeck, du moins dans le principe. Peut-être mes préoccupations paraîtront-elles bizarres au XXIII siècle, comme les cris d'appréhension qui ont accompagné l'invention de la télévision il y a un demi-siècle. Après tout, bien que ces cris résonnent encore aujourd'hui devant les débordements du sexe et de la violence à la télévision, sans elle nous n'aurions pas Star Trek.
Le danger de devenir une nation de téléspectateurs inertes ne vaudrait pas dans un monde peuplé de holodecks personnels, ou de galeries de holodecks : se lancer dans une aventure du holodeck, ce n'est pas être passif. Toutefois, la perspective de la réalité virtuelle continue à m'embarrasser, notamment parce que cette «réalité» est en fait bien moins effrayante que la réalité. La séduction d'un monde où l'on peut éprouver des expériences sensuelles directes sans se préoccuper des conséquences peut se révéler sans limites.
Toutefois, chaque technologie nouvelle a ses bons et ses mauvais côtés, et nous force à réajuster notre comportement. L'on aura sans doute compris, à me lire, ma foi en la technologie, qui a, dans l'ensemble, amélioré notre vie plus qu'elle ne l'a détériorée. La nécessité de se réajuster n'est qu'une partie du défi général, qui est d'appartenir à une société en constante évolution.
Quoi qu'il en soit, le holodeck comporte un aspect qui le distingue de manière frappante des autres technologies de la réalité virtuelle en cours de développement. Aujourd'hui, grâce à des appareils que l'on fixe sur le corps et qui influencent la vision et les données sensorielles, la réalité virtuelle place la «scène» à l'intérieur du sujet. Le holodeck se montre encore plus inventif: il place le sujet à l'intérieur de la scène, et il y parvient d'une part en exploitant de façon imaginative l'holographie, d'autre part par duplication.
Les principes de base de l'holographie furent posés en 1947 (bien avant l'invention d'une technologie permettant de les exploiter à fond) par le physicien britannique Dennis Gabor, qui reçut par la suite le prix Nobel pour ses travaux. Aujour-d'hui, la plupart des gens connaissent l'utilisation des images holographiques à trois dimensions sur les cartes de crédit, et même sur la couverture de certains livres. Le mot « hologramme» vient des mots grecs signifiant «entier» et «écrire». Contrairement aux photographies normales, qui se contentent d'enregistrer des représentations bidimensionnelles d'une réalité tridimensionnelle, les hologrammes représentent cette réalité dans son intégralité. Il est possible, grâce à l'holographie, de recréer une image tridimensionnelle dont on peut faire le tour et contempler tous les angles, comme s'il s'agissait de l'objet d'origine. La différence est sensible seulement si l'on essaie de toucher l'hologramme : on voit alors qu'il n'y a rien à toucher.
Comment un morceau de pellicule bidimensionnel, puisque c'est lui qui emmagasine l'image holographique, peut-il enregistrer l'ensemble des données qui constituent une image en trois dimensions ? Pour répondre à cette question, il nous faut réfléchir sur la nature exacte de ce que nous voyons lorsque nous voyons quelque chose, et de ce qu'une photographie enregistre exactement.
Nous percevons les objets parce qu'ils émettent ou reflètent la lumière, qui parvient ensuite à nos yeux. Lorsqu'un objet tridimensionnel est illuminé, il renvoie la lumière dans des directions variées, à cause de sa tridimensionnalité. Si nous pouvions d'une façon ou d'une autre reproduire l'exacte structure de la lumière divergente lorsque la lumière se voit ainsi éparpillée autour de l'objet concret, nos yeux seraient incapables de distinguer la différence entre l'objet concret et la structure de lumière divergente créée en l'absence de cet objet. En bougeant la tête, par exemple, nous réussirions à voir des traits qui étaient auparavant obscurcis, cela parce que la structure intégrale de lumière éparpillée depuis toutes les parties de l'objet aurait été recréée.
Comment pouvons-nous emmagasiner, puis recréer toutes ces données? Nous nous en ferons une idée en considérant ce qu'une photographie normale - qui emmagasine, puis recrée une image bidimensionnelle - enregistre pour sa part. Lorsque nous prenons une photo, nous exposons un matériel sensible à la lumière à une lumière venue de l'extérieur et qui pénètre par les lentilles de l'appareil. Ce matériel sensible à la lumière, quand il est exposé à divers produits chimiques, noircira selon l'intensité de la lumière qui l'a contaminé. (Je parle ici des pellicules noir et blanc, mais il n'est pas difficile d'étendre la démonstration à la couleur - il suffit d'enduire la pellicule de trois substances distinctes, dont chacune est sensible à une couleur primaire de la lumière.)
Le contenu total de l'information enregistrée sur une pellicule photographique dépend de l'intensité de la lumière qui frappe telle ou telle zone sur la pellicule. Lorsque nous développons le film, les zones qui ont été exposées à une intensité plus forte de lumière réagiront aux produits chimiques de développement en devenant plus sombres, celles qui ont été moins exposées resteront plus claires. L'image résultante sur la pellicule est une projection «négative» bidimensionnelle du champ de lumière original. Nous projetons de la lumière à travers ce négatif sur une feuille de papier sensible à la lumière pour créer la photographie définitive. Lorsque nous la regardons, la lumière qui frappe les zones les plus claires de la photographie seront reflétées de façon prédominante, tandis que la lumière qui frappe les zones sombres sera absorbée. En observant la lumière reflétée depuis la photographie, nos rétines reçoivent une structure d'intensité bidimensionnelle que nous pouvons ensuite interpréter.
La question est alors de savoir ce qu'il reste à enregistrer de plus que le simple niveau d'intensité de la lumière dans chaque zone. Une fois de plus, nous nous baserons sur le fait que la lumière est une onde. Cela signifie qu'il faut plus que la seule intensité pour caractériser sa configuration. Observons l'onde lumineuse figurée ci-dessous :


En zone A, l'onde, qui dans notre cas représente la force du champ électrique, atteint sa valeur maximale, qui correspond à un champ électrique de force Ea, lorsqu'elle pointe vers le haut. En zone B, le champ est d'une force égale, mais pointe vers le bas. En termes d'intensité, le champ a la même intensité en A et en B. Toutefois, la zone B constitue une partie de l'onde différant de la zone A. Cette «zone» de l'onde a pour nom la «phase». Or on peut spécifier toutes les données associées à une onde à un point donné en donnant son intensité et sa phase. Pour enregistrer toutes les données des ondes de lumière renvoyées par un objet tridimensionnel, il faut trouver un moyen d'enregistrer sur un morceau de pellicule et l'intensité et la phase de cette lumière.
Ce qui est simple comme bonjour. Si vous divisez en deux un rayonnement de lumière et que vous en projetez une partie directement sur la pellicule en laissant l'autre se répandre autour de l'objet avant d'imprimer la pellicule, il se passera l'une des deux choses suivantes. Si les deux ondes lumineuses sont «en phase», c'est-à-dire si leurs sommets se touchent en un point que nous nommerons A, alors l'amplitude de cette nouvelle onde au point A sera deux fois supérieure à celle de chacune des ondes individuelles, comme le montre le dessin ci-dessous:

D'un autre côté, si les deux ondes ne sont pas en phase au point A, elles s'annuleront réciproquement, et l'onde résultante au point A aura une amplitude de zéro :

Donc, si, au point A, la pellicule est une pellicule photographique, qui n'est sensible qu'au niveau d'intensité, elle fixera un « schéma d'interférence» entre les deux ondes - le rayonnement de référence et le rayonnement de lumière renvoyé par l'objet. Ce schéma ne contient pas seulement les données sur l'intensité de la lumière répandue par l'objet, mais également des données sur ses phases. Avec un peu d'astuce, il est possible d'extraire ces données de façon à recréer une image tridimensionnelle de l'objet qui a renvoyé la lumière.
En fait, il s'avère qu'il n'y a pas besoin de déployer tant de ruse. Si l'on se contente d'imprimer cette pellicule photographique avec une source de lumière dont l'onde équivaut à celle de la lumière d'origine qui a produit le schéma d'interférence, une image de l'objet sera créée à l'endroit précis où l'objet était en rapport avec la pellicule, lorsque vous regardez à travers celle-ci. Si vous tournez la tête d'un côté, vous réussirez à « contourner du regard» les angles de l'objet reproduit. Si vous voilez l'essentiel du morceau de pellicule, et que vous le rapprochez de l'œil pour regarder à travers la partie qui n'est pas voilée, vous verrez encore l'objet tout entier! Cette expérience est la même que si vous regardez à travers la fenêtre une scène qui se déroule à l'extérieur, sauf que la scène que vous contemplez n'est pas vraiment là. La lumière qui vient frapper votre œil à travers la pellicule est affectée de telle façon que votre œil s'imagine qu'elle se diffuse autour de l'objet. C'est ça, un hologramme.
Normalement, si l'on veut que la lumière de référence et la lumière diffusée autour de l'objet soient sous un contrôle attentif, on construira les hologrammes en utilisant le laser, qui crée une lumière cohérente et bien définie. Cependant il existe des hologrammes de «lumière blanche», comme on les nomme, qui peuvent être imprimés avec de la lumière ordinaire, et qui produisent le même effet.
On peut truquer les choses davantage encore. On peut, par exemple, user de diverses lentilles et manipuler les images des objets de sorte qu'elles apparaissent entre la pellicule et vous, de façon que vous puissiez en faire le tour et les voir sous tous les angles. Ou encore on peut intervenir sur la source de lumière de manière à ce qu'elle soit devant la pellicule plutôt que derrière, comme avec les hologrammes sur les cartes de crédit.
C'est sans doute la première catégorie d'hologrammes qui est utilisée sur le holodeck, ou pour recréer l'image d'un médecin dans l'infirmerie, comme dans la série du Voyageur. Qui plus est, afin de créer ces hologrammes, on n'a pas besoin d'utiliser les objets d'origine. Les ordinateurs numériques sont désormais assez sophistiqués pour exécuter des « tracés par rayon» - ils peuvent calculer le schéma lumineux que répand tout objet hypothétique que vous souhaitez dessiner sur l'écran, et l'illuminer sous n'importe quel angle. De la même façon, l'ordinateur peut déterminer la configuration du schéma d'interférence provoqué par la fusion entre la lumière issue d'un rayonnement direct et celle diffusée par un objet. Ce schéma d'interférence réalisé par l'ordinateur pourra être projeté sur un écran transparent qui, une fois illuminé par-derrière, produira une image tridimensionnelle d'un objet qui n'a en réalité jamais existé. Si l'ordinateur est assez rapide, il peut projeter un schéma d'interférence en mouvement constant sur l'écran, et produire en conséquence une image tridimensionnelle animée. Aussi l'aspect holographique du holodeck n'a-t-il rien de bien sorcier.
Toutefois, le holodeck ne se limite pas aux hologrammes. Comme on l'a remarqué, ceux-ci n'ont aucune intégrité corporelle. On peut marcher à travers eux, ou les traverser d'une balle, comme l'ont prouvé les merveilleuses figures holographiques inventées par Spock et Data pour abuser les Romuliens dans l'épisode « Unification». Cette immatérialité ne suffit pourtant pas aux objets qu'on souhaite manier et toucher sur le holodeck. Il faut pour cela des techniques plus ésotériques : les auteurs de Star Trek ont eu recours au téléporteur, ou du moins aux duplicateurs, qui sont des versions moins sophistiquées du téléporteur. C'est sans doute en usant de la technologie qui est à la base du téléporteur qu'on arrive ainsi à reproduire la matière et à l'animer sur le holodeck de façon à imiter exactement des êtres humains, leur voix et leurs mouvements. De même, les duplicateurs reproduisent des objets inanimés, des tables, des chaises, etc. Cette « matière à holodeck » doit sa forme au schéma contenu dans le circuit duplicateur. Lorsque le téléporteur est débranché ou que l'objet est retiré du holodeck, la matière se désagrège aussi facilement que si le circuit modélisateur était débranché au cours du processus de téléportation. Les créatures constituées à base de « matière à holodeck » peuvent être ainsi piégées sur le holodeck, comme les détectives imaginaires, Cyrus Redblock et Felix Leach le découvrent à leur grande consternation dans l'épisode de la Nouvelle génération intitulé «Le grand adieu», et comme l'ennemi intime de Sherlock Holmes, le Pr Moriarty, le déduit avant de chercher à y échapper dans plusieurs épisodes.

Voici donc comment je me représente le holodeck: des hologrammes seront mis en action sur les murs, pour donner l'impression qu'on est dans un environnement tridimensionnel étendu jusqu'à l'horizon, et les duplicateurs basés sur le téléporteur créeront alors les objets «solides» et animés à l'intérieur de ce décor. Puisque l'holographie est une idée réaliste ( contrairement au téléporteur, comme je l'ai expliqué plus haut), il faudrait trouver une autre façon de modeler et d'animer la matière afin de réaliser un holodeck opérationnel. Nous possédons une technologie sur deux, ce qui n'est pas si mal.
Avec tout cela, où situer les purs hologrammes, comme le médecin holographique de la série du Voyageur? La réponse est : nulle part. Si nous ne possédons que la lumière répandue et non la matière qui va avec, je crains que ces images ne se prêtent à aucune forme de manipulation. Toutefois, un ton doctoral et quelques conseils murmurés sur un ton profondément compréhensif, car c'est ce qui fait le cœur de l'authentique pratique médicale, peuvent être dispensés par un hologramme aussi bien que par un authentique médecin.

Troisième partie

L'univers invisible :
toutes ces choses qui se cognent
dans le noir

Où l'on traite de ce qui pourrait exister,
mais n'a encore jamais été observé :
la vie extraterrestre, les dimensions multiples,
et tout un zoo de possibilités et impossibilités physiques.

8 - A la recherche de M. Spock

« Difficile de travailler en groupe
quand on a tous les pouvoirs.»
Q, le jour où il devint membre d'équipage
de l' Entreprise, dans l'épisode « Déjà Q »

« Incessantes agressions, annexions territoriales, génocides ... à la moindre occasion ... La colonie est constituée comme si elle n'était qu'un seul organisme, régi par un génome déterminant un comportement, et le rendant par là même possible ... Le super-organisme physique agit de façon à ajuster l'équilibre démographique et à optimiser son économie énergétique ... Son règlement austère n'autorise ni le jeu, ni l'art, ni la compassion. »
Les Borgs sont parmi les extraterrestres les plus effrayants et les plus curieux jamais présentés à la télévision. Ce qui les rend si fascinants, me semble-t-il, c'est que leur organisme pourrait tout à fait exister au terme d'une sélection naturelle. De fait, bien que le paragraphe cité ci-dessus offre une description adéquate des Borgs, il n'est pas extrait d'un épisode de Star Trek. Il est paru dans une critique de l'ouvrage de Bert Hëlldobler et Edward O. Wilson, Voyage chez les fourmis: il ne décrit pas les Borgs, mais nos petits amis les insectes (1) Les fourmis ont opéré sur l'échelle de l'évolution de remarquables progrès, et il est facile de comprendre pourquoi. Peut-on imaginer une société évoluée dont le développement engendrerait pareil super-organisme communautaire? La compassion, et autres raffinements intellectuels, seraient-ils alors nécessaires à une telle société, ou ne représenteraient-ils qu'un embarras?
Gene Roddenberry a affirmé que le véritable but du vaisseau Entreprise était d'être le véhicule non pas de voyages spatiaux, mais de contes et d'histoires. Au-delà de toute la sorcellerie technologique, même un « techno » comme moi reconnaît que, si Star Trek« marche», c'est parce qu'il y a de l'action, et qu'on y retrouve les grands thèmes qui fondent l'art de conter depuis les épopées grecques - l'amour, la haine, la trahison, la jalousie, la joie, la crainte, l'émerveillement ... Nous nous laissons tous prendre avec la plus grande facilité à ces représentations des émotions humaines qui gouvernent notre vie. Si la vitesse de distorsion ne servait qu'au transport de sondes inoccupées, si les téléporteurs n'étaient conçus que pour déménager des échantillons de terreau, si les scanneurs médicaux ne s'occupaient que de la vie des plantes, Star Trek n'aurait même pas tenu jusqu'à la fin de la première saison.
De fait, la « mission perpétuelle» du vaisseau spatial Entreprise n'est pas d'explorer toujours plus à fond les lois de la physique, mais « d'explorer des mondes nouveaux, de rechercher de nouvelles formes de vie et de civilisation». Ce qui rend Star Trek si fascinant - et en assure, je pense, la pérennité - est que tout cela étend le drame humain bien au-delà du règne de l'homme. Nous en venons à imaginer comment des espèces non humaines rencontrent au cours de leur développement des problèmes analogues à ceux qui se posent à l'humanité. Nous sommes confrontés à de nouvelles cultures imaginaires, à de nouvelles menaces. C'est un peu la même fascination que lorsqu'on visite un pays étranger pour la première fois, ou lorsqu'on lit des ouvrages d'histoire, et qu'on découvre ce qui était complètement différent, mais aussi ce qui était strictement identique dans le comportement de gens qui vivaient il y a des siècles.
Il nous faut, certes, suspendre notre incrédulité pour goûter ces divertissements. Chose curieuse, toutes les espèces étrangères rencontrées par l'équipage de !'Entreprise sont d'apparence humanoïde, et elles parlent toutes anglais ! Les auteurs s'en sont défendus dans la sixième saison de la Nouvelle génération. L'archéologue Richard Galen aurait découvert qu'un grand nombre de ces civilisations possèdent un matériau génétique commun, semé dans les océans primitifs d'un grand nombre d'univers par une civilisation antique. Cette idée évoque la théorie (presque) ironique de la panspermie, avancée par le lauréat du prix Nobel Francis Crick (2). Les fans de la série n'ont pas été sans le remarquer, d'où la remarque haute en couleur du physicien Sheldon Gashow, Prix Nobel de physique, sur les extraterrestres de Star Trek : « On dirait qu'ils ont tous chopé une éléphantiasis!» Cela ne l'empêche pas, comme la plupart des fans, de passer sur les artifices du scénario pour apprécier l'exploration des psychologies extraterrestres par les auteurs de Star Trek. Les scénaristes de Hollywood ne sont en général ni des scientifiques ni des ingénieurs: il est donc naturel de s'attendre à ce que leur puissance créatrice, en matière d'extraterrestres, se consacre à imaginer des civilisations plutôt que des systèmes biologiques.
Et l'imagination ne leur a pas fait défaut. À côté des Borgs et de Q, le farceur omnipotent, l'univers de Star Trek comptait déjà plus de deux cents formes de vie spécifiques lorsque j'ai arrêté de les dénombrer. Notre galaxie est apparemment peuplée d'autres civilisations intelligentes, dont quelques-unes ont plus progressé que les autres. Certaines - la Fédération, les Klingons, les Romuliens et les Cardassiens - contrôlent de vastes empires, tandis que d'autres vivent isolées sur une planète unique, ou dans le vide interstellaire.
La découverte d'une intelligence extraterrestre pourrait être, comme l'ont souligné les spécialistes, la découverte la plus importante dans l'histoire de la race humaine. En effet, il est difficile d'imaginer une découverte qui puisse davantage modifier notre image de nous-mêmes et de notre place dans l'univers. Néanmoins, après trois décennies de recherches coordonnées, les témoignages prouvant de façon décisive qu'il y a d'autres formes de vie en dehors de notre propre planète nous font encore défaut. Cela peut sembler surprenant : s'il est une forme de vie dans l'espace, nous devrions à coup sûr la découvrir - de même que nombre des civilisations qui avaient émergé séparément sur les divers continents de notre Terre ont fini par se rencontrer (non sans quelques traumatismes).
Néanmoins, lorsqu'on y réfléchit plus profondément, on aperçoit clairement ce que cette quête d'autres formes de vie peut avoir d'intimidant. Supposons qu'une autre civilisation de la galaxie ait été informée, d'une manière ou d'une autre, de l'endroit exact où il fallait aller chercher, parmi les 400 milliards d'étoiles qui forment la Voie lactée, une planète accueillant la vie. Disons même qu'on leur a conseillé de tourner les yeux vers notre soleil. Quelle est la probabilité pour qu'ils découvrent notre existence? La vie est apparue sur Terre presque à sa création, il y a 4,5 milliards d'années. Mais il n'y a qu'une cinquantaine d'années environ que nous avons commencé à signaler notre existence. De plus, ce n'est que depuis vingt-cinq ans ou presque que nous possédons des radiotélescopes assez puissants pour servir de radiophares susceptibles d'être vus par d'autres civilisations. Ainsi, en 4,5 milliards d'années d'observation potentielle, les extraterrestres n'auraient pu découvrir la Terre qu'au cours des cinquante dernières années. En supposant qu'une civilisation extraterrestre ait choisi de se livrer à une observation à un moment ou un autre de l'histoire de notre planète, la probabilité qu'ils découvrent notre existence serait donc d'environ 1 sur 100 millions. Encore faudrait-il, je vous le rappelle, qu'ils sachent exactement où aller chercher !
Des piles d'ouvrages traitent de la possibilité d'une vie ailleurs dans la galaxie, et des possibilités de la détecter. L'estimation des nombres de civilisations évoluées va de plusieurs millions ( estimation haute) à une seule ( estimation basse), si l'on admet, avec quelque générosité, que notre civilisation est évoluée. Je n'ai pas l'intention de consacrer une étude approfondie à ces documents. J'aimerais, en revanche, décrire quelques-uns des arguments physiques concernant les origines des espèces vivantes que l' Entreprise a pour mission de découvrir, et discuter quelques-unes des stratégies employées aujourd'hui sur Terre à cet objet.
L'argument a priori qui présuppose nécessairement la présence de la vie ailleurs dans notre galaxie me paraît irrésistible. Comme on l'a vu, il existe environ 400 milliards d'étoiles dans notre galaxie. Il serait vraiment étonnant que notre soleil soit le seul autour duquel une forme de vie intelligente se soit développée. On peut avancer une idée en apparence plus sophistiquée pour estimer la probabilité qu'une forme de vie équivalant à la nôtre se trouve ailleurs, en posant des questions évidentes, telles que : « Quelle est la probabilité pour que cette étoile [particulière] vive assez pour entretenir la vie sur un système planétaire ?», puis en passant à un niveau planétaire, avec des questions telles que: « Cette planète est-elle assez grande pour avoir une atmosphère ? »; ou : « Quelle est la probabilité pour qu'elle ait connu un volcanisme susceptible de produire assez d'eau à la surface ?»; ou encore:« Quelle est la probabilité pour qu'elle ait une lune dont la masse ou la proximité produisent des marées susceptibles de constituer des eaux stagnantes où se développerait la vie, mais non des raz de marée quotidiens?» J'étudierai certaines de ces questions, mais le problème, lorsqu'on tente de déterminer des probabilités réalistes, c'est d'abord que bien des paramètres requis ne sont pas déterminés, et ensuite que nous ignorons comment ces paramètres sont corrélés. Il est déjà assez difficile de déterminer correctement la probabilité d'événements quotidiens. Lorsqu'on tente d'estimer une suite de probabilités infinitésimales, la signification opérationnelle de cette entreprise n'est souvent que marginale.
Il faudrait également se rappeler que, même si l'on parvient à déterminer une probabilité précise, son interprétation n'a rien d'évident. Par exemple, la probabilité d'une suite particulière d'événements - ainsi, le fait que je suis assis sur ce modèle spécifique de chaise, et que je tape mon texte sur cet ordinateur spécifique (parmi les millions fabriqués chaque année), en ce lieu précis (parmi toutes les villes possibles du monde), et à cet instant précis (parmi les 86 400 secondes qui font un jour) - est quasi nulle. On peut dire la même chose pour toute autre série de circonstances de ma vie. De même, dans le monde inanimé, la probabilité que, par exemple, un noyau radioactif dégénère au moment précis où il le fait est quasi nulle. Toutefois, nous ne calculons pas ces probabilités. Nous nous demandons plutôt quelle est la probabilité pour que le noyau dégénère en un intervalle de temps non nul, ou quelle est la probabilité pour que la dégénérescence se produise à un moment donné plutôt qu'à un autre.
Lorsqu'on tente d'estimer les probabilités de vie dans la galaxie, il faut faire bien attention à ne pas restreindre outre mesure la séquence d'événements que l'on examine. Si c'est le cas, et cela s'est produit, on sera tenté de conclure que la probabilité que la vie se soit formée sur Terre au moment exact où elle s'est formée était infinitésimale, et c'est un argument parfois utilisé pour prouver l'existence d'une intervention divine. Toutefois, comme je viens de l'indiquer, cette même possibilité quasi nulle peut concerner la probabilité que le feu de circulation que je vois depuis ma fenêtre passe au rouge alors que j'attends dans ma voiture au stop, à 11 heures 57 tapantes, le 3 juin 1999. Ce qui ne signifie pas pour autant que le fait ne se produira pas.
Ce qu'il nous faut admettre, c'est que la vie s'est bel et bien formée dans la galaxie une fois au moins. Je ne soulignerai jamais assez l'importance de cette idée. Toute notre expérience en matière de science montre que la nature se contente rarement de produire un phénomène une seule et unique fois. Nous constituons un précédent. Notre simple existence prouve que la formation de la vie est chose possible. Dès lors que nous savons que la vie peut apparaître dans la galaxie, la probabilité qu'elle apparaisse ailleurs augmente beaucoup. (Bien sûr, comme l'ont avancé quelques biologistes tenants de l'évolution, la vie n'implique pas forcément l'intelligence.)
Notre imagination étant à coup sûr bien trop faible pour prendre en compte toutes les conditions qui, combinées, pourraient faire naître une forme de vie intelligente, nous pouvons prendre appui sur notre propre existence pour examiner quelles propriétés de l'univers ont joué un rôle essentiel ou important dans notre propre évolution.
Commençons par l'univers en général. J'ai déjà mentionné une coïncidence cosmique: à savoir qu'à l'origine de l'univers un proton supplémentaire était produit tous les dix milliards environ de protons et d'antiprotons. Sans ces petits extras, la matière et l'antimatière se seraient annihilées réciproquement, et il ne serait pas resté de matière dans l'univers aujourd'hui, intelligente ou pas.
Le trait qui nous frappe ensuite dans l'univers dans lequel nous vivons, c'est qu'il est ancien, très ancien. Il a fallu à la vie intelligente environ 3,5 milliards d'années pour se développer sur Terre. C'est pourquoi notre existence avait besoin d'un univers qui, durant des milliards d'années, permît cette existence. Les dernières estimations quant à l'âge de notre univers tournent autour de 10 à 20 milliards d'années, ce qui est largement suffisant. Toutefois il n'est pas si facile, a priori, de concevoir un univers qui se développe comme le fait le nôtre sans s'effondrer dans ce qui serait l'inverse du « Big Bang» - un «Big Crunch » -, ou bien s'étendre à une telle vitesse que la matière n'aurait pas le temps de s'agglomérer pour former des étoiles et des galaxies. Les conditions initiales de l'univers, ou quelque processus physique dynamique apparu au début de son histoire, devraient être ajustées avec une très grande finesse pour mettre les choses exactement en place.
Ce problème est maintenant connu sous le nom de « problème d'un univers plat», et son examen occupe une place centrale dans la cosmologie actuelle. L'attraction gravitationnelle, due à la présence de la matière, tend à ralentir l'expansion de l'univers. En conséquence, il reste deux possibilités. Ou l'univers contient assez de matière pour faire cesser, puis reculer l'expansion (univers «clos»), soit il n'en contient pas assez (univers «ouvert »). Ce qui est surprenant avec l'univers actuel, c'est que, en additionnant toute la matière que nous pensons qu'il contient, nous nous trouvons avec une somme étonnamment proche de la frontière entre ces deux possibilités - un univers «plat», où l'expansion observée ralentirait sans jamais tout à fait s'arrêter, sur une durée illimitée.
Voilà ce qui est particulièrement surprenant : au fur et à mesure que l'univers progresse, s'il n'est pas exactement plat, du moins s'éloigne-t-il de plus en plus d'une forme plate au cours du temps. Puisque l'univers est sans doute âgé d'au moins 10 milliards d'années aujourd'hui, et que les observations faites suggèrent que l'univers est aujourd'hui presque plat, alors, il y a bien longtemps, il devait déjà être infiniment proche de cette forme. Il est difficile d'imaginer que cela ait pu se produire au hasard, sans l'appui de quelque processus physique. Il y a une quinzaine d'années, un processus physique a été inventé, qui peut nous convenir. Connu sous le nom d'«inflation», c'est un processus doué d'ubiquité, susceptible, en raison des effets quantiques, de s'être produit aux premiers temps de l'univers.
Rappelez-vous que l'espace vide n'est pas réellement vide, mais que des fluctuations quantiques peuvent convoyer de l'énergie dans le vide. Quand la nature des forces entre les particules élémentaires évolua avec la température aux premiers temps de l'univers, il est possible que l'énergie stockée sous forme de fluctuations quantiques soit devenue la forme dominante d'énergie. Cette énergie créée à partir du vide peut exercer une répulsion plutôt qu'une attraction gravitationnelle. On a suggéré que l'univers a pu passer par une brève phase d'inflation, au cours de laquelle il aurait été dominé par cette énergie du vide, provoquant une phase d'expansion très rapide. On a pu démontrer qu'au terme de cette période, lorsque l'énergie du vide fut transférée dans celle de la matière et de la radiation, l'univers s'est retrouvé très exactement plat.
Il demeure toutefois un autre problème, plus ardu peut-être. Einstein a été le premier à le poser lorsqu'il a tenté d'appliquer à l'univers sa nouvelle théorie générale de la relativité. À son époque, on ne savait pas encore que l'univers s'étendait; on le croyait statique et immuable à grande échelle. Einstein chercha le moyen d'éviter que toute cette matière ne s'effondre à cause de sa propre attraction gravitationnelle. Il ajouta un terme à ses équations, appelé la « constante cosmologique», qui avait essentiellement pour fonction d'introduire une répulsion cosmique, donc d'équilibrer l'attraction gravitationnelle à grande échelle. Lorsqu'on admit que l'univers n'était pas statique, Einstein réalisa qu'il n'y avait nul besoin de ce terme, et reconnut que, en l'ajoutant au reste, il avait commis «la plus grosse gaffe» de sa carrière.
Hélas! c'est comme quand on essaie de remettre le dentifrice dans le tube: une fois posée la possibilité d'une constante cosmologique, impossible de revenir en arrière. Si un tel terme est possible dans les équations d'Einstein, il nous faut expliquer pourquoi il est absent de l'univers observé. En fait, l'énergie du vide telle que je l'ai décrite ci-dessus produit exactement le même effet que celui qu'Einstein a tenté de produire avec sa constante cosmologique. La question devient donc : comment expliquer qu'une telle énergie du vide ne soit pas aujourd'hui largement dominante dans l'univers? Ou, en d'autres termes, comment expliquer que le processus d'inflation n'y soit plus à l'œuvre?
Nous n'avons pas de réponse à cette question, qui compte parmi les plus profondes et les plus insolubles de la science. Tous les calculs que nous faisons d'après les théories actuelles suggèrent que l'énergie du vide devrait être aujourd'hui bien plus importante qu'elle ne l'est selon nos observations. Certaines hypothèses, basées sur des phénomènes exotiques comme les mini-trous noirs euclidiens, pourraient expliquer cette disparition, mais aucune n'a de fondement ferme. Plus surprenant encore, des observations récentes faites à diverses échelles suggèrent toutes que la constante cosmologique, si elle est bien plus réduite que de raison, peut néanmoins aujourd'hui ne pas équivaloir à zéro. On pourrait mesurer dès lors son effet sur l'évolution de l'univers: il serait par exemple plus vieux qu'on ne le croit. C'est un sujet fort intéressant, qui occupe une bonne partie de mes recherches actuelles.
Néanmoins, quelle que soit la solution à ce problème, il est clair que la forme quasi plate de l'univers a été l'une des conditions nécessaires à la possibilité de la vie sur Terre, et que les conditions cosmologiques favorisant la formation de la vie sur Terre sont valables ailleurs aussi bien.
À un niveau microphysique élémentaire, on constate par ailleurs une énorme quantité de coïncidences cosmiques qui ont permis à la vie d'apparaître sur Terre. Si, parmi toutes ces quantités physiques de base, une seule s'était trouvée légèrement différente, alors les conditions nécessaires à l'évolution de la vie sur Terre n'auraient pu être réunies. Si la différence minime de masse entre un neutron et un proton ( environ d'un millième) avait été multipliée, ne fût-ce que par deux, la quantité des éléments dans l'univers ( dont certains sont essentiels à la vie sur Terre) serait radicalement différente de ce que nous observons aujourd'hui. De la même façon, si le niveau d'énergie de l'un des états d'excitation du noyau de l'atome de carbone était légèrement différent de ce qu'il est, les réactions qui produisent le carbone à l'intérieur des étoiles ne se produiraient pas, et il n'y aurait aujourd'hui pas de carbone - fondement des molécules organiques - dans l'univers.
Bien sûr, il est difficile de savoir à quel point il faut souligner ces coïncidences. Rien de surprenant, puisque notre évolution a eu pour cadre cet univers, à noter que les constantes de la nature possèdent effectivement les qualités qui nous ont permis, à nous, d'évoluer. On pourrait se figurer, pour faire progresser la discussion, que notre univers, celui que nous observons, fait partie intégrante d'un méta-univers existant à une échelle beaucoup plus grande que l'objet de notre observation. Dans chacun des univers qui composent ce métaunivers, les constantes naturelles pourraient être modifiées. Dans ces univers, dont les constantes sont incompatibles avec l'évolution de la vie, il n'existerait aucun observateur pour mesurer les données. Pour paraphraser la théorie du cosmologue russe Andrei Linde, qui souscrit à cette forme de «principe anthropique», c'est comme si un poisson doué d'intelligence se demandait pourquoi l'univers dans lequel il vit (l'intérieur d'un bocal à poisson) est fait d'eau. La réponse est simple: s'il n'était pas composé d'eau, le poisson ne serait pas là pour poser la question.
Puisque la plupart de ces problèmes, quoique intéressants, ne sauraient être résolus à un simple niveau empirique, mieux vaut peut-être les abandonner aux philosophes, aux théologiens ou aux auteurs de science-fiction. Acceptons le fait que l'univers a véritablement trouvé le moyen d'évoluer, sur un plan à la fois microscopique et macroscopique, de façon à rendre possible l'évolution de la vie. Et tournons-nous maintenant vers notre propre habitat, la Voie lactée.
Lorsque nous nous demandons quels systèmes de notre propre galaxie pourraient accueillir une forme de vie intelligente, les enjeux physiques deviennent plus nets. Étant donné qu'il existe des étoiles dans la Voie lactée qui, suivant toutes les estimations, sont âgées d'au moins 10 milliards d'années, alors que la vie sur Terre ne date que de 3,5 milliards d'années, nous sommes en droit de nous demander si la vie a pu être présente dans notre galaxie avant qu'elle n'apparaisse sur Terre, et depuis combien de temps.
Lorsque notre galaxie commença à se condenser après l'expansion de l'univers, il y a 10 à 20 milliards d'années, les étoiles de la première génération étaient constituées entièrement d'hydrogène et d'hélium, les seuls éléments produits abondamment lors du « Big Bang». La fusion nucléaire à l'intérieur de ces étoiles a continué à convertir l'hydrogène en hélium, et une fois ce combustible hydrogène épuisé, l'hélium commença à «brûler», jusqu'à former des éléments plus pesants encore. Ces réactions de fusion continueront à alimenter l'étoile jusqu'à ce que son cœur soit essentiellement constitué d'acier. Or l'acier ne peut fondre pour former des éléments plus pesants, et c'est pourquoi le combustible nucléaire de l'étoile s'épuise. Le rythme auquel une étoile brûle son combustible nucléaire dépend de sa masse. Notre propre soleil, après 5 milliards d'années de combustion d'hydrogène, n'en est pas encore à la moitié de la première phase de son évolution stellaire. Des étoiles de 10 masses solaires - c'est-à-dire pesant dix fois le poids du Soleil - brûlent leur combustible à peu près mille fois plus vite que le Soleil. Ces étoiles auront donc épuisé leur combustible d'hydrogène en moins de 100 millions d'années, quand le Soleil a une espérance de vie de 10 milliards d'années.
Qu'est-ce qui arrive à une de ces étoiles massives lorsqu'elle a épuisé son combustible nucléaire? Quelques secondes après qu'elle a brûlé ses ultimes réserves, l'étoile éclate en une explosion appelée supernova, l'un des feux d'artifice les plus brillants qui nous soient présentés dans l'univers. Les supernovas brillent un bref laps de temps de l'éclat d'un milliard d'étoiles réunies. À notre époque, il s'en produit deux ou trois tous les cent ans. Il y a mille ans environ, des astronomes chinois observèrent une nouvelle étoile, visible de jour dans le ciel, qu'ils baptisèrent « étoile invitée». Cette supernova créa ce que notre télescope nous révèle maintenant comme étant la nébuleuse du Crabe. On notera que ce phénomène éphémère n'a été repéré nulle part en Europe occidentale. Le dogme de l'Église, à cette époque, déclarait que les cieux étaient éternels et immuables, et mieux valait ne pas y prêter attention plutôt que de risquer le bûcher. Quelque cinq cents ans plus tard, les astronomes européens s'étaient assez affranchis de ce dogme pour que l'astronome danois Tycho Brahe puisse repérer une nouvelle supernova dans la galaxie.
Une bonne partie des éléments pesants créés au cours du processus stellaire, et d'autres produits par l'explosion ellemême, sont dispersés dans l'environnement interstellaire : un peu de cette « poussière d'étoile» est incorporée dans un gaz qui s'affaisse pour former une autre étoile. Pendant des milliards d'années, de nouvelles générations d'étoiles - dites de catégorie 1, tout comme notre soleil- se forment, et une grande partie de ces étoiles sont entourées d'un disque tourbillonnant de gaz et de poussières. Ceux-ci fusionnent et forment des planètes contenant des éléments pesants tels que le calcium, le carbone et l'acier. C'est de ces matières que nous sommes faits. Chaque atome de notre corps fut créé il y a des milliards d'années, dans la fournaise ardente de quelque étoile morte depuis longtemps. C'est à mon sens l'un des faits les plus fascinants et les plus poétiques touchant notre univers: nous sommes tous, au sens le plus littéral, des enfants d'étoiles.
À présent, si une planète comme la Terre se formait par hasard à proximité d'une étoile très massive, cela ne l'avancerait pas à grand-chose. Nous l'avons vu, ces étoiles évoluent et meurent dans un intervalle d'environ 100 millions d'années. Seules des étoiles ayant la masse de notre soleil, ou une masse inférieure, passeront plus de 5 milliards d'années dans une phase stable de combustion d'hydrogène. Il est difficile d'imaginer comment la vie pourrait se former sur une planète située dans l'orbite d'une étoile dont la luminosité connaîtrait de très importantes variations au cours de son évolution. À l'inverse, si une étoile plus petite et plus sombre que le Soleil possédait un système planétaire, une planète assez chaude pour entretenir de la vie aurait sans doute bien des chances d'être trop proche d'elle pour ne pas être détruite par les raz de marée. Si nous devons chercher des traces de vie, mieux vaut donc sélectionner des étoiles pas trop différentes de la nôtre. Il se trouve que le Soleil est plutôt un modèle courant dans la galaxie. Environ 25 % des étoiles de la Voie lactée - 100 milliards environ au total - correspondent au profil. La plupart sont plus âgées que le Soleil lui-même, et pourraient, en principe, avoir créé des lieux favorables à la vie, environ 4 ou 5 milliards d'années avant que le Soleil ne s'y mette à son tour.

Revenons sur Terre. Qu'est-ce qui fait la particularité de cette planète bleue ? En premier lieu, elle se situe dans la zone interne du système solaire. Ce détail compte : les planètes situées dans la zone externe ont un pourcentage d'hydrogène et d'hélium bien supérieur, et plus proche de celui du Soleil. La plupart des éléments lourds présents dans le disque de gaz et de poussière entourant ce dernier à sa naissance sont, semble-t-il, demeurés dans la zone interne du système. On pourrait donc s'attendre à trouver des lieux favorables à la vie situés à des distances plus courtes que celle qui sépare, par exemple, Mars d'une étoile dont la masse solaire serait de 1.
Ensuite, comme aurait dit Boucles-d'Or, la Terre est juste comme il faut - ni trop grande, ni trop petite, ni trop chaude, ni trop froide. Puisque les planètes situées dans la zone interne n'avaient sans doute pas d'atmosphère quand elles se sont formées, celle-ci dut être générée par des gaz émanant des volcans. L'eau à la surface de la Terre fut produite de cette façon. Sans doute une planète plus petite aurait-elle irradié de la chaleur de sa surface assez rapidement pour empêcher une bonne part du volcanisme de se mettre en œuvre. Ce fut sans doute le cas avec Mercure et la Lune. Mars est un cas limite. La Terre et Vénus sont parvenues à créer une atmosphère. Des mesures récentes d'isotopes de gaz radioactifs dans les roches terrestres suggèrent que, après une période initiale de bombardement, qui dura de 100 à 150 millions d'années, il y a environ 4,5 milliards d'années, et au cours de laquelle la Terre fut créée par accrétion de matière, le volcanisme produisit environ 85 % de l'atmosphère en quelques millions d'années. C'est pourquoi, encore une fois, il n'est pas surprenant que la vie organique se soit formée sur Terre plutôt que sur d'autres planètes du système solaire, et l'on pourrait s'attendre à voir apparaître des tendances similaires ailleurs dans la galaxie - sur les planètes de catégorie M, comme on les nomme dans l'univers de Star Trek.
Reste à savoir à quel rythme la vie, suivie d'une forme intelligente de vie, évoluerait - d'après notre expérience terrestre. La réponse à la première partie de la question est : à un rythme assez rapide. Des vestiges fossilisés d'algues bleu-vert âgées d'environ 3,5 milliards d'années ont été découverts, et divers chercheurs ont avancé que la vie était déjà florissante il y a 3,8 milliards d'années. Quelque 100 millions d'années seulement après le jour de sa création, la Terre accueillait déjà la vie. Voilà qui est très encourageant.
Bien sûr, entre le moment où la vie est apparue sur Terre et le développement multicellulaire complexe (puis celui d'une forme de vie intelligente), il s'est écoulé environ 3 milliards d'années. Nous avons toutes les raisons de penser que cette ère fut dominée par la physique plus que par la biologie. En premier lieu, l'atmosphère primitive de la Terre ne contenait pas d'oxygène. Le dioxyde de carbone, le nitrogène et de multiples traces de méthane, d'ammoniaque, de dioxyde de soufre et d'acide hydrochlorique étaient présents, mais non l'oxygène. Or non seulement ce dernier est essentiel pour les formes avancées de vie organique sur Terre, mais il joue un autre rôle important: c'est seulement quand l'atmosphère contient assez d'oxygène que l'ozone peut se former. L'ozone, comme nous en sommes de plus en plus conscients, est essentiel à la vie, parce qu'il forme une couche qui repousse les rayons ultraviolets, nocifs à la plupart des formes de vie. Il n'est pas surprenant, dès lors, que l'explosion rapide de la vie sur Terre n'ait commencé qu'une fois l'oxygène abondamment répandu.
Des mesures récentes indiquent que l'oxygène a commencé à se développer dans l'atmosphère il y a quelque 2 milliards d'années, et a atteint son niveau actuel 600 millions d'années après environ. L'oxygène produit à l'origine, grâce à la photosynthèse des algues bleu-vert présentes dans les océans premiers, n'avait d'abord pas réussi à s'élever dans l'atmosphère. L'oxygène réagit à un nombre si élevé de substances, telles que l'acier, que tout ce qui était produit par photosynthèse se combinait avec d'autres éléments avant de pouvoir atteindre l'atmosphère. En fin de compte, il s'oxyda assez de matière dans l'océan pour que l'oxygène libéré puisse s'accumuler dans l'atmosphère. (Ce processus n'eut jamais lieu sur Vénus, parce que la température était trop haute pour que s'y forment des océans, et c'est pourquoi la vie n'apparut pas, ni les algues bleu-vert préservant la vie.)
Ainsi, après que les conditions permettant des formes de vie complexes eurent véritablement mûri, il fallut encore 1 millard d'années environ pour que la vie se développe. Bien sûr, il n'est pas certain que cette échelle chronologique puisse s'appliquer en général. Des accidents tels que de mauvais tournants dans l'évolution, des changements climatiques et des événements cataclysmiques provoquèrent des extinctions, affectant et l'échelle chronologique et les résultats finaux.
Néanmoins, ces résultats indiquent qu'une forme de vie intelligente peut évoluer dans un intervalle de temps assez court sur l'échelle chronologique du cosmos -1 milliard d'années environ. L'ampleur de ce cadre temporel dépend de facteurs purement physiques, tels que la production de chaleur et les taux de réactions chimiques. Notre expérience sur Terre nous apprend que, même en limitant nos espérances de trouver une forme de vie intelligente à une vie organique et aérobique - et c'est là adopter une attitude bien conservatrice, rejetée par les auteurs de Star Trek (Horta, la créature rocheuse à base de silicone, est parmi mes préférées) -, les planètes en orbite autour des étoiles âgées de plusieurs milliards d'années, et dont la masse solaire serait d'environ 1, représentent les meilleures candidates.
Même en considérant la formation de la vie organique comme un processus robuste et relativement rapide, quelle preuve avons-nous que ces ingrédients de base - les molécules organiques, et les autres planètes - existent ailleurs dans l'univers? Là encore, des études récentes incitent à l'optimisme. On a observé des molécules organiques dans des astéroïdes, des comètes, des météorites, et dans l'espace interstellaire. Certaines sont des molécules complexes, et notamment les acides aminés, ces cubes dont se construit la vie. Des mesures micro-ondes du gaz interstellaire et des grains de poussière ont permis l'identification de douzaines de composants organiques, dont on suppose que certains sont des hydrocarbones complexes. Il est peu douteux que la matière organique soit présente dans toute la galaxie.
Et les planètes, enfin? On ne compte qu'une seule observation directe d'un autre système planétaire que le nôtre, bien qu'un seul système ait pu être observé hormis le nôtre. On a longtemps cru que la plupart des étoiles étaient entourées de planètes. Il est certain qu'une bonne partie des étoiles observées possèdent une compagne stellaire, dans ce qu'on appelle des systèmes binaires. De plus, on a observé que nombre de jeunes étoiles étaient entourées de disques périphériques de poussière et de gaz, qui ont sans doute engendré des planètes. Divers modèles numériques conçus pour prévoir la répartition des masses planétaires et des orbitales sur ces disques suggèrent ( et je souligne ce mot) que ceux-ci produiront au moins une planète pareille à la Terre, et pareillement éloignée de son étoile. Tout récemment, un autre système planétaire a pu enfin être détecté, à 1 400 années-lumière de la Terre. De façon assez surprenante, le système observé est l'un des endroits les moins hospitaliers qu'on puisse imaginer pour accueillir des planètes: trois d'entre elles sont en orbite autour d'un pulsar - le noyau affaissé d'une supernova -, à une moindre distance que celle qui sépare Vénus du Soleil. Ces planètes pourraient fort bien s'être formées après plutôt qu'avant la supernova : du moins cette découverte indique que la formation de planètes n'est certainement pas un phénomène rare.

Je ne voudrais pas que l'arbre cache la forêt. Il est quasi miraculeux que les lois normales de la physique et de la chimie, combinées avec un univers en expansion âgé de plus de 10 milliards d'années, mènent au développement de consciences capables d'étudier l'univers où elles sont nées. Néanmoins, si les circonstances qui ont mené à la formation de la vie sur la Terre sont particulières, elles ne semblent en aucune façon lui être propres. Selon les arguments cités plus haut, il se peut fort bien qu'il y ait plus d'un milliard de sites favorables à la vie organique dans notre galaxie. Et puisque notre galaxie n'est qu'une galaxie parmi plus de cent milliards dans l'univers tel qu'on peut l'observer, j'ai peine à croire que nous soyons tout seuls. De plus, comme je l'ai noté, la plupart des étoiles de catégorie 1 se sont formées avant le Soleil (jusqu'à 5 milliards d'années plus tôt). Si l'on prend en considération le cadre temporel étudié plus haut, la vie intelligente a sans doute évolué sur bien des sites, des milliards d'années avant la naissance de notre étoile. En fait, il est probable que la plus grande partie de la vie intelligente soit apparue avant la nôtre. Ainsi, si l'on prend en compte la durée de vie des civilisations intelligentes, la galaxie pourrait être peuplée de civilisations ayant perduré littéralement des milliards d'années avant nous. D'un autre côté, à l'instar de la nôtre, ces civilisations ont peut-être affronté la guerre et la famine, et beaucoup n'ont peut-être pas survécu plus de quelques millénaires. Dans ce cas, la plus grande partie de la vie intelligente aurait disparu depuis longtemps. Comme un chercheur l'a dit avec force il y a vingt ans: «La question de savoir s'il existe ailleurs une forme de vie intelligente dépend, en dernière analyse, du degré d'intelligence qui caractériserait cette forme de vie. (3) »
Alors, comment savoir? Devrons-nous dépêcher des vaisseaux spatiaux pour explorer de nouveaux mondes étranges, et aller où nul ne s'est encore aventuré? Ou serons-nous découverts par nos voisins intergalactiques, qui auront fini par capter les divers épisodes de Star Trek, dont les signaux voyagent à vitesse-lumière sur toute l'étendue de la galaxie? Ni l'un ni l'autre, à mon avis - et je ne suis pas le seul à le croire.
En premier lieu, nous avons bien vu que les voyages dans l'espace ont de quoi nous effrayer. Il y faudrait plus d'énergie que nous ne saurions l'imaginer, pilotage en vitesse de distorsion ou non. N'oubliez pas que pour propulser une fusée en utilisant des moteurs à base d'un mélange de matière et d'antimatière, à une vitesse équivalant aux trois quarts de la vitesselumière, pour un aller-et-retour de dix ans jusqu'à l'étoile la plus proche, il faudrait une décharge d'énergie équivalant à la consommation totale d'électricité des États-Unis pendant plus de 100 000 ans! Et cette quantité n'est rien à côté de celle qu'il faudrait pour pouvoir véritablement distordre l'espace. De plus, pour avoir une chance raisonnable de trouver de la vie, il ne serait pas inutile de sonder quelques milliers d'étoiles au moins. Je crains que, même à vitesse-lumière, nous n'ayons pas assez du prochain millénaire pour y parvenir.
Voilà pour la mauvaise nouvelle. La bonne nouvelle, c'est que nous n'avons plus trop à craindre d'être enlevés par des extraterrestres. Eux aussi, ils ont sans doute fait leurs comptes énergétiques et découvert qu'il vaut mieux apprendre à nous connaître de loin.
Faut-il alors consacrer nos efforts à diffuser notre existence sur les ondes? Certes, ce serait meilleur marché. Nous pourrions envoyer au système stellaire le plus proche un message d'une dizaine de mots qui pourrait être reçu par des antennes de radio de taille raisonnable, pour moins d'un dollar d'électricité. Toutefois - et là encore, je m'inspire d'Edward Purcell, lauréat du prix Nobel - si nous préférons diffuser plutôt que recevoir, nous risquons de manquer la plupart des formes de vie intelligentes. À coup sûr, ces civilisations lointaines peuvent se débrouiller bien mieux que nous pour transmettre de puissants signaux. Et comme nous sommes lancés dans la transmission radio depuis quatre-vingts ans ou presque seulement, rares sont les sociétés moins avancées que nous qui pourraient s'être dotées d'une technologie les mettant à même de recevoir nos signaux. C'est pourquoi, comme disait ma mère, il faut écouter avant de parler. Pourtant, alors même que j'écris ces mots, j'espère soudain que toutes ces sociétés plus avancées que nous ne sont pas en train de se d:ire la même chose.

Encore faut-il savoir quoi écouter. Si nous n'avons aucune idée préalable du canal sur lequel il faut nous brancher, la situation paraît sans issue. Ici, Star Trek peut nous guider. Dans l'épisode de la Nouvelle génération intitulé « L'enfant de la galaxie», l' Entreprise tombe par hasard sur une forme de vie extraterrestre qui vit dans l'espace vide et se nourrit d'énergie. Elle goûte tout particulièrement la radiation émise sur une fréquence très précise - 1 420 millions de cycles par seconde, sur une onde de 21 centimètres.
Pour parler comme Pythagore, s'il existe une musique des Sphères, nous tenons sans doute là sa tonalité dominante. 1 420 mégaherz, c'est la fréquence naturelle de précession du spin d'un électron tournant autour d'un noyau atomique d'hydrogène, le matériau dominant dans notre univers. C'est, mille fois plus que toute autre, la fréquence radio la plus importante de la galaxie. De plus, elle tombe précisément dans la fourchette de fréquences qui, telle la lumière visible, peuvent être transmises et reçues à travers une atmosphère susceptible d'accueill:ir une forme de vie organique. Enfin les bruits de fond sont très rares quand on émet à cette fréquence. Les radioastronomes l'ont utilisée pour localiser l'hydrogène dans la galaxie - ce qui revient évidemment à localiser la matière - et ont ainsi pu déterminer la forme de la galaxie. Toute espèce assez intelligente pour connaître les ondes radio et l'univers connaît nécessairement cette fréquence. C'est un signal domestique universel. Il y a trente-six ans, les astrophysiciens Giuseppe Cocconi et Philip Morrison ont suggéré qu'elle était la fréquence la plus propre à transmettre ou recevoir un signal, et nul n'est revenu depuis sur leur conclusion.
Hollywood n'a pas seulement deviné quelle fréquence se prêtait le mieux à l'écoute: il a également contribué à financer cette écoute. Pendant trente ans et plus, on a conduit des projets d'écoute à petite échelle, mais le premier projet d'ensemble à grande échelle a été fondé à l'automne 1985, lorsque Steven Spielberg a donné le coup de pouce décisif au lancement officiel le projet META, ou Megachannel Extra Terrestrial Array (exploration large spectre des signaux extraterrestres). Né du cerveau du magicien de l'électronique, Paul Horowitz, professeur à l'université Harvard, le META est situé à l'emplacement du télescope des universités Harvard et Smithson (long de 26 mètres), dans le Massachusetts, et est financé par des investissements privés de la Société planétaire, auxquels Monsieur E. T. a contribué à hauteur de 100 000 dollars. Le META utilise un déploiement de 128 processeurs parallèles, qui scanne simultanément 8 388 608 canaux de fréquence de l'ordre de 1 420 mëgaherz et, ce que l'on appelle ses harmoniques secondaires, de 2 840 mégaherz. On a accumulé les données pendant plus de cinq ans, et le META a parcouru trois fois le ciel en quête d'un signal extraterrestre.
Bien sûr, il faut savoir écouter intelligemment et admettre en premier lieu que, même si un signal est émis sur une fréquence de 1 420 rnégaherz, il ne sera pas forcément reçu sur cette même fréquence. Et ce, à cause de l'infâme effet Doppler qui veut que le sifflement d'un train soit plus fort quand il approche et plus bas quand il s'éloigne. Cela vaut pour toutes les radiations émises par une source en mouvement. Puisque la plupart des étoiles dans la galaxie se déplacent à la vitesse de plusieurs milliers de kilomètres par seconde par rapport à nous, impossible d'ignorer cette modification de Doppler. (Les auteurs de Star Trek l'ont prise en compte, et ont doté le téléporteur de « compensateurs de Doppler» qui prennent en compte les déplacements relatifs du vaisseau spatial et de la cible visée.) Admettant que les transmetteurs de signaux ont réalisé ce fait, les chercheurs du I\IBTA ont étudié le signal de 1 420 mégahertz tel qu'il pourrait apparaître s'il était modifié après avoir été émis depuis trois sources possibles, à savoir : a) une source dont le déplacement serait parallèle à notre système local d'étoiles, b) une source dont le déplacement serait parallèle à celui du centre de la galaxie, c) une source dont le déplacement serait parallèle au cadre défi.ni par les radiations de fond des micro-ondes cosmiques. Il est alors plus facile de distinguer de tels signaux des signaux terrestres : ces derniers sont tous émis par une source située à la surface de la Terre, ce qui n'est pas le cas des sources étudiées ci-dessus. Aussi les signaux terrestres ont-ils un «gazouillis» caractéristique quand ils apparaissent dans les données de I\IBTA.
Quel aspect prendrait un signal extraterrestre ? Cocconi et Morrison ont suggéré que nous pourrions chercher les premiers nombres premiers: 1, 3, 5, 7, 11, 13 ... C'est justement la série de coups tapés par Picard dans l'épisode «Allégeance», lorsqu'il tente de faire comprendre à ses ravisseurs qu'ils ont affaire à une espèce intelligente. Des pulsations émises par une tempête de surface sur une étoile, entre autres exemples, ne risquent pas d'émettre cette série précise. Les chercheurs du META ont cherché un signal encore plus basique : un ton constant, uniforme, sur une fréquence fixe. Il est facile de chercher une onde «porteuse» de ce type.
Horowitz et son collaborateur Carl Sagan, astronome issu de l'université de Cornell, ont fait le bilan des données accumulées durant cinq ans par le .META. Ils ont isolé 37 signaux, sélectionnés parmi les 100 000 milliards détectés. Toutefois, aucun de ces «signaux» n'a été répété. De ces données, Horowitz et Sagan préfèrent dire qu'elles n'offrent pour l'instant aucun signal définitif. Du moins ont-ils réussi à limiter le nombre possible de civilisations hautement avancées qui auraient tenté de communiquer avec nous à diverses distances de notre soleil.
Néanmoins, malgré la complexité incroyable de cet effort de recherche, seul un petit nombre de fréquences a été véritablement exploré, et, pour être détecté par le télescope du META, un signal requiert une assez grande quantité d'énergie: les autres civilisations devraient employer une puissance de transmission supérieure à l'énergie totale que la Terre reçoit du Soleil (environ 1017 watts) pour produire un signal susceptible d'être détecté. Il n'y a donc pas de quoi se laisser aller au pessimisme. Ce n'est pas une tâche facile que de rester à l'écoute. Le groupe du META est en voie de construire un détecteur plus vaste ( ou BETA), ce qui devrait multiplier par 1 000 le potentiel de recherche.

La quête continue. Le fait que nous n'avons encore rien entendu ne devrait pas nous décourager. C'est un peu ce que me disait mon ami Sidney Coleman, professeur de physique à Harvard, à propos de l'achat d'une maison: il ne faut pas se décourager si, après en avoir regardé cent, vous n'avez toujours pas trouvé. Il suffit de tomber sur une seule qui vous plaise ... Un signal unique, mais définitif, même s'il est improbable que nous en recevions jamais un, changerait notre point de vue sur l'univers et annoncerait les prémices d'une ère nouvelle dans l'évolution de la race humaine.
Et pour ceux d'entre vous qui sont déçus à l'idée que, pour prendre contact avec les civilisations extraterrestres, nous n'allions pas leur rendre visite à bord de nos vaisseaux, rappelez-vous les Cythériens, cette civilisation hautement avancée que l'Entreprise rencontre, et qui prend contact avec d'autres civilisations non pas en voyageant à travers l'espace, mais en amenant à elle les voyageurs de l'espace. Dans un sens, c'est bien ce que nous faisons lorsque nous nous mettons à l'écoute de signaux venus des étoiles.

9 - Toute une ménagerie de possibilités

« Voilà de belles perspectives d'exploration ! Il ne
s'agit plus de tracer le plan des
étoiles ou d'étudier des
nébuleuses, mais de dresser la liste des possibilités
d'existence inconnues.»
Q à Picard, dans l'épisode «Les meilleures choses ... »

En plus de treize ans, les auteurs de Star Trek ont eu l'occasion de recourir à certaines des idées les plus excitantes qui soient en physique, tous domaines confondus. Parfois ils les exploitent correctement; parfois ils en font n'importe quoi. Parfois ils se contentent de reproduire le jargon des physiciens, et parfois ils vont jusqu'à reprendre les idées convoyées par ces mots. Lire la liste des sujets traités revient à passer en revue la physique moderne : relativité restreinte, relativité générale, cosmologie, physique des particules, voyage dans le temps, distorsion de l'espace et fluctuations quantiques, pour ne citer que quelques exemples.
Dans cet avant-dernier chapitre, je présenterai rapidement quelques idées parmi les plus intéressantes empruntées par nos auteurs à la physique moderne - notamment les concepts sur lesquels je n'ai pas eu le temps de me pencher auparavant. Leur diversité m'incite à les présenter sous forme de glossaire, sans ordre thématique préconçu. Dans le dernier chapitre, j'adopterai une présentation similaire - en prenant pour échantillons les bourdes scientifiques les plus évidentes de la série, d'après une sélection opérée par divers fans, d'éminents collègues et moi-même. Dans les deux cas, je me suis contenté d'une dizaine d'exemples, mais j'aurais pu ne pas m'en tenir là.

Les ordres de grandeur dans la galaxie et dans l'univers

Notre galaxie est la scène où se déroule le drame de Star Trek. Tout le long de la série, diverses distances intergalactiques jouent un rôle crucial dans l'action. On y jongle avec les UA (unité astronomique: 1 UA équivaut à 150 millions de kilomètres, soit la distance qui sépare la Terre du Soleil), notamment pour donner une idée du nuage Véjur dans le premier film de Star Trek. De plus, divers aspects de notre galaxie sont avancés, dont une « Grande Frontière» en son centre ( dans Star Trek V: L'ultime frontière) et, dans les premiers épisodes, une « frontière galactique» à sa lisière ( cf « Là où nul n'est allé», «Ou tout autre nom», ou «La vérité n'est-elle pas toujours belle ?»). Il semble dès lors utile, si l'on veut décrire le terrain de jeu où se situe Star Trek, d'offrir notre propre tableau de la galaxie et de ses voisins, et de donner notre propre idée des ordres de grandeur dans l'univers.
Parce que les chiffres concernés sont énormes, on traduit rarement les distances astronomiques en unités conventionnelles tels que les kilomètres. Les astronomes ont préféré créer des unités de grandeur plus appropriées. L'une d'elles est l'U A. Elle représente l'échelle de distance du système solaire : Pluton, qui y figure l'Ultima Thulé, se situe à environ 40 UA de la Terre. Dans Star Trek: Le film, le nuage Véjur est décrit comme ayant un diamètre de 82 UA, ce qui est considérable - et plus grand encore que tout notre système solaire !
Pour la comparer aux distances interstellaires, nous gagnons à transposer la distance entre la Terre et le Soleil en termes de temps nécessaire à la lumière ( ou à l' Entreprise lorsqu'elle se déplace en vitesse de distorsion 1) pour voyager du Soleil à la Terre, à savoir environ 8 minutes. (C'est le temps qu'il faudrait à la lumière pour atteindre, depuis leur soleil, la plupart des planètes de catégorie M.) Nous pouvons donc dire que 1 UA équivaut à 8 minutes de lumière. Par comparaison, la distance séparant la Terre de l'étoile la plus proche, Alpha du Centaure - système binaire d'étoile où, semble-t-il, a vécu Zefrem Cochrane, l'inventeur de la vitesse de distorsion - est d'environ 4 années-lumière: distance caractéristique de celle qui sépare les étoiles dans notre région de la galaxie. Étant donné leur vitesse actuelle, nos fusées mettraient plus de 10 000 ans pour atteindre Alpha du Centaure. En vitesse de distorsion 9, qui équivaut à environ 1 500 fois la vitesselumière, elles mettraient près de 6 heures pour traverser une année-lumière.
La distance séparant le Soleil du centre de la galaxie est d'environ 25 000 années-lumière. En vitesse de distorsion 9, il faudrait environ 15 ans pour couvrir cette distance, et il est donc improbable que Sybok, lorsqu'il prend le commandement de l' Entreprise, réussisse à la ramener au centre de la galaxie, comme il le fait dans Star Trek V: L'ultime frontière, à moins que !'Entreprise n'y soit déjà.
La Voie lactée est une galaxie en forme de spirale, qui comprend en son centre un large disque d'étoiles. Elle est longue d'environ 100 000 années-lumière, et large de quelques milliers. Le Voyageur, projeté à quelque 70 000 années-lumière de la Terre dans le premier épisode de la série qui porte son nom, se retrouve donc de l'autre côté de la galaxie. À une vitesse de distorsion 9, il faudrait au vaisseau environ 50 ans pour retourner dans la région de notre soleil depuis ce point.
Au centre de notre galaxie, il y a un renflement - un amas dense d'étoiles - qui s'étend sur plusieurs milliers d'annéeslumière. On pense qu'il renferme un trou noir d'environ un million de fois la masse solaire. Il est probable que les autres galaxies recèlent en leur centre des trous noirs allant de dix mille à plus de un million de fois la masse solaire.
Un halo vaguement sphérique, composé de très vieilles étoiles, entoure la galaxie. Les amas de milliers d'étoiles - ou «clusters globulaires» - qu'on y a trouvés figurent apparemment parmi les échantillons les plus anciens de notre galaxie. Ces étoiles auraient jusqu'à 18 milliards d'années, si l'on se fie à notre méthode actuelle de datation, et seraient encore plus anciennes que le «cluster noir» de l'épisode intitulé «Le culte du héros», qui passait pour avoir 9 milliards d'années. On pense qu'un halo sphérique encore plus énorme, constitué de «matière noire» (nous reviendrons sur ce terme) entoure la galaxie. Ce halo demeure invisible à tous les télescopes, et sa masse est peut-être égale à dix fois celle de la galaxie.
La Voie lactée est une galaxie en spirale de taille ordinaire, qui contient quelques milliards d'étoiles. Il y a environ 100 milliards de galaxies dans l'univers observable, et chacune contient un nombre d'étoiles plus ou moins identique! Parmi celles qu'il nous est possible d'observer, 70 % environ sont en spirale; les autres sont à peu près sphériques et répondent au nom de galaxies elliptiques. Les plus larges forment des galaxies elliptiques géantes, dont la masse est dix fois celle de la Voie lactée.
La plupart des galaxies sont agrégées en amas. Dans notre amas local, les galaxies les plus proches de la Voie lactée sont de petites galaxies satellites, qui tournent en orbite autour de la nôtre. Ces phénomènes, que l'on peut observer depuis l'hémisphère Sud, ont pour nom le Grand et le Petit Nuage de Magellan. Ils sont situés à environ 2 millions d'années-lumière de notre voisine la plus importante, la galaxie Andromède, où logeraient les Kelviens, qui tentent de s'emparer de l'Entreprise pour rentrer chez eux dans l'épisode « Ou tout autre nom». En vitesse de distorsion 9, le voyage prendrait environ 1000 ans!
À cause du temps mis par la lumière pour voyager, plus nos regards vont chercher loin, plus ils remontent dans Je temps. Les senseurs électromagnétiques nous ramènent ainsi jusqu'à l'époque où la Terre était vieille de 300 000 ans. Auparavant, la matière existait sous la forme de gaz chaud ionisé, opaque aux radiations électromagnétiques. En quêtant un peu dans toutes les directions, nous percevons les radiations émises par la matière et la radiation lorsqu'elles se «dissocièrent». Ce phénomène a été baptisé arrière-plan de micro-ondes cosmiques. En l'observant (et récemment encore avec le satellite COBE lancé par la NASA en 1989), nous pouvons nous faire une idée de ce qu'était l'univers lorsqu'il avait 300 000 ans.
Enfin l'univers lui-même se développe de façon uniforme. Le résultat, c'est que les galaxies lointaines s'éloignent encore - et plus elles sont lointaines, plus vite elles s'éloignent - à une vitesse exactement proportionnelle à la distance qui les sépare de nous. Ce rythme d'expansion, caractérisé par une quantité baptisée constante de Hubble, est tel que des galaxies situées à 10 millions d'années-lumière s'éloignent à une vitesse moyenne de 150 à 300 kilomètres par seconde. En faisant les calculs inverses, on découvre que toutes les galaxies observables dans l'univers étaient rassemblées à l'époque du Big Bang, il y a 10 à 20 milliards d'années.

La matière noire

Comme je l'ai mentionné plus haut, notre galaxie est apparemment immergée dans une vaste mer de matériau invisible !. En étudiant le mouvement des étoiles, des nuages de gaz d'hydrogène, et même du Petit et du Grand Nuage de Magellan autour du centre galactique, et en recourant aux lois de Newton qui mettent en rapport la vitesse des objets en orbite et la masse qui les attire, on a déterminé que, sur des distances équivalant à environ dix fois la distance qui nous sépare du centre de la galaxie, s'étend un halo de matière noire à peu près en forme de spirale. Ce matériau constitue au moins 90 % de la masse de la Voie lactée. De plus, en observant le mouvement d'autres galaxies, y compris celles de forme elliptique, ainsi que le mouvement des groupes de galaxies, nous découvrons qu'il y a plus de matière dans ces systèmes que nos seules observations ne l'indiquent. L'univers tout entier, tel que nous l'observons, semble donc être dominé par la matière noire. La pensée admise est que cette matière constitue la masse de l'univers pour une proportion de 90 à 99 % .
L'idée de la matière noire s'est insinuée dans les séries La nouvelle génération et Le Voyageur de façon assez amusante. Ainsi, dans l'épisode du Voyageur intitulé « Cathexis », le vaisseau pénètre une « nébuleuse de matière noire» qui, comme on peut l'imaginer, est pareille à un gros nuage noir et opacifiant. L' Entreprise avait déjà rencontré pareils objets, dont le « cluster noir» mentionné plus haut. Toutefois, si la matière noire est impressionnante, ce n'est pas parce qu'elle fait écran à la lumière d'une façon particulière, mais parce qu'elle ne brille pas, n'émet aucune radiation ni n'en absorbe de manière significative. Si c'était le cas, les télescopes la détecteraient. Si vous vous trouviez à l'intérieur d'un nuage de matière noire, comme c'est sans doute le cas pour nous, vous ne vous en apercevriez même pas.
La question de la nature, de l'origine et de la répartition de la matière noire compte sans doute parmi les énigmes les plus excitantes de la cosmologie actuelle. Puisque cette matière inconnue domine la densité de masse de l'univers, sa répartition a dû déterminer quand et comment la matière observable s'est affaissée sous l'effet de la gravité pour créer les clusters galactiques, les galaxies, les étoiles et les planètes qui font tout l'intérêt de l'univers à nos yeux. Notre existence même dépend directement de cette matière. De plus, la somme totale de matière noire dans l'univers déterminera le sort ultime de l'univers: le grand «Bang» final (s'il s'effondre) ou un sifflement ininterrompu (s'il continue son expansion alors même que les étoiles s'éteindront les unes après les autres). Cela dépendra de la quantité de matière qu'il contient, puisque l'attraction gravitationnelle est le facteur qui ralentit l'expansion.
Plus palpitants encore sont les arguments forts qui voudraient que la matière noire soit constituée de particules entièrement différentes des protons et neutrons qui composent la matière ordinaire. Les estimations relatives à la quantité de matière normale dans l'univers, basées sur les calculs des taux de réaction nucléaire aux premiers temps de l'univers, et la formation subséquente d'éléments légers, suggèrent qu'il n'y a peut-être pas assez de protons et de neutrons pour expliquer la présence de la matière noire autour des galaxies et des clusters. Qui plus est, pour comprendre la façon dont les petites fluctuations dans la répartition initiale de matière se sont effondrées dans le plasma brûlant de l'univers originaire, formant les galaxies et les clusters que nous observons aujourd'hui, il faut, semble-t-il, prendre en compte un type inédit de particule élémentaire qui ne produirait pas d'interaction avec la radiation électromagnétique. Si la matière noire est bel et bien constituée d'un type inédit de particules élémentaires, alors :
a) La matière noire ne se trouve pas juste «là-bas» : elle est dans la chambre même où vous lisez ce livre, et traverse votre corps imperceptiblement. Ces particules élémentaires exotiques ne s'amassent pas pour former des objets astronomiques; elles constitueraient plutôt un gaz «diffus» qui se répandrait abondamment dans toute l'étendue de la galaxie. Puisque leur interaction avec la matière est pour le moins restreinte, elles devraient être capables de se déplacer à travers des objets aussi vastes que la planète Terre. Ces particules peuvent de fait être observées dans la nature : notamment les neutrinos (leur nom doit être familier aux fans de Star Trek, et j'en reparlerai).
b) On peut observer directement la matière noire ici-bas, sur terre, en faisant usage de techniques sophistiquées portant sur la détection de particules élémentaires. Divers détecteurs, conçus pour réagir à divers types de matière noire, sont en cours d'élaboration.
c) La détection de ces particules pourrait révolutionner la physique des particules élémentaires. Ces objets sont en toute probabilité les résidus de processus de production remontant aux tout premiers temps de l'univers, avant même qu'il ait atteint l'âge d'une seconde, et qui interviennent en physique à des niveaux d'énergie comparables ou supérieurs à ceux dont nous faisons directement l'expérience toutes les fois que nous utilisons un accélérateur moderne.

Pour palpitante que soit cette hypothèse, nous ne pouvons encore affirmer que la matière noire ne relève pas, en fait, d'une matière bien moins exotique. Il y a plusieurs façons d'assembler des protons et des neutrons de façon qu'ils ne brillent pas : si nous peuplions la galaxie avec des balles de neige ou des blocs de pierre, nous aurions du mal à détecter ceux-ci. Dans ce cas de figure, il faut supposer qu'il existe dans la galaxie nombre d'objets presque assez vastes pour être des étoiles, mais trop petits pour qu'une réaction thermonucléaire se produise dans leurs noyaux. On parle de « naines brunes » : Data et ses collègues de l' Entreprise les ont contestées dans l'épisode « Chasse à l'homme». De fait, on conduit en ce moment d'intéressantes expériences pour découvrir si les naines brunes, ou machos (Massive Astrophysical Compact Halo Objects: objets astrophysiques massifs caractérisés par un halo compact) - représentent un élément clef du halo de matière noire qui entoure la Voie lactée. Bien que ces objets ne se prêtent pas à une observation directe, si l'un d'eux devait passer devant une étoile, la lumière de l'étoile serait affectée par la gravité du macho, et en paraîtrait plus brillante. Ce phénomène dit «. effet de lentille gravitationnel>> fut prédit par Einstein dans les années trente, et nous disposons maintenant de la technologie nécessaire à sa détection. Diverses expériences permettent l'observation de millions d'étoiles dans notre galaxie, soir après soir, pour voir si cet effet de lentille se produit. La sensitivité suffit à détecter un halo de machos formant de la matière noire - à supposer qu'ils constituent véritablement la plus grande part de la matière noire qui entoure notre galaxie. Des observations préliminaires ont permis des estimations, lesquelles tendent à suggérer que le halo de matière noire n'est pas composé de machos, mais la question reste ouverte.

Les étoiles à neutrons

Ces objets sont, rappelez-vous, les uniques vestiges des noyaux affaissés des étoiles devenues des supernovas. Bien que leur masse soit en général quelque peu supérieure à celle du Soleil, elles sont si denses qu'elles ont à peu près la taille de Manhattan! Une fois de plus les auteurs de Star Trek se sont surpassés en matière de terminologie. L' Entreprise a rencontré plusieurs fois une forme de matériau rejeté d'une étoile à neutrons, et les auteurs ont baptisé ce matériau « neutronium », Puisque les étoiles à neutrons sont composées quasi exclusivement de neutrons joints entre eux si fortement que l'étoile constitue pour ainsi dire un noyau atomique géant, le nom est bien choisi. La machine du Jugement dernier, dans l'épisode qui porte ce nom, est apparemment composée de neutronium pur, et donc imperméable aux armes de la Fédération. Toutefois, pour que ce matériau demeure stable, il lui faut subir une pression extrême créée par l'attraction d'une masse stellaire de matériau dont le rayon n'excède pas 15 kilomètres.
L' Entreprise a frôlé plusieurs fois des étoiles à neutrons. Dans l'épisode "Évolution", au moment où les Nanites entreprennent de grignoter les ordinateurs du vaisseau, l'équipage est occupé à étudier une étoile à neutrons, sur le point d'exploser au terme de son processus d'accrétion. Dans l'épisode «La Société des chefs-d'œuvre », l'Entreprise doit défiéchir un fragment de noyau stellaire que sa course dirige contre Moab IV.
Il y a sans aucun doute des millions d'étoiles à neutrons dans la galaxie. La plupart furent dotées à leur naissance de champs magnétiques internes d'une dimension incroyable. S'ils tournent rapidement, ils font de merveilleux radiophares. Chacun de leurs pôles émet de la radiation, et si le champ magnétique est dévié en fonction de l'axe du spin, il se crée un phare tournant. Depuis la Terre, nous détectons ces explosions périodiques d'ondes radio, et nommons leur source des «pulsars». En tournant ainsi dans l'espace, ils constituent les meilleures horloges de l'univers. Les signaux émis par les pulsars sont d'une régularité chronométrique qui ne se décale pas plus d'une microseconde par an. De plus, certains produisent plus de 1 000 pulsations par seconde. Ce qui signifie qu'un objet qui est par essence un noyau atomique géant, dont la masse équivaut à celle du Soleil, et dont la longueur est de 10 à 20 kilomètres, effectue sa rotation mille fois par seconde. Méditez cela : la vitesse de rotation à la surface de l'étoile à neutrons est égale à deux fois la vitesse de la lumière ! Les pulsars illustrent le fait que la nature produit des objets plus extraordinaires encore que tous ceux que les auteurs de Star Trek peuvent imaginer.

De nouvelles dimensions

Alors que James T. Kirk dérive lentement à l'intérieur et à l'extérieur de notre univers dans «La toile de Tholé », nous apprenons que la faute en revient à une «interphase spatiale», qui connecte pour un bref laps de temps différents plans dimensionnels, constituant à l'ordinaire des « univers parallèles». Deux fois déjà nous avions rencontré ces univers avec Kirk - l'un est constitué d'antimatière dans « Le facteur alternatif», et la téléportation permet d'accéder à l'autre dans «Miroir, mon beau miroir». Dans la série de la Nouvelle gênération, on trouve aussi le continuum-Q, temps non linéaire défini par le Dr Paul Mannheim comme « une fenêtre ouverte sur d'autres dimensions», et, bien sûr, le subespace lui-même, qui contient un nombre infini de dimensions, où peuvent se dissimuler des extraterrestres comme ceux qui capturent le lieutenant Riker dans l'épisode« Schismes».
L'idée que, d'une façon ou d'une autre, les quatre dimensions de l'espace et du temps où nous vivons ne sont pas les seules est tenace dans les consciences populaires. Récemment, un psychiatre enseignant à Harvard a écrit un livre à succès ( et connu, semble-t-il, quelques problèmes avec le département d'Études médicales) où il rapporte les analyses effectuées avec divers patients qui tous affirment avoir été enlevés par des extraterrestres. Dans une interview où on lui demandait d'où venaient les extraterrestres et comment ils étaient arrivés, il aurait suggéré qu'ils venaient « d'une autre dimension».
Cet engouement pour les dimensions supérieures nous vient sans aucun doute de la théorie de la relativité restreinte. Une fois que Hermann Minkowski eut rattaché l'espace tridimensionnel au temps, formant ainsi l'espace-temps quadridimensionnel, il était naturel de présupposer que le processus pourrait se poursuivre. Qui plus est, une fois que la relativité générale eut démontré que la force de gravité, telle que nous la percevons, pouvait être associée à la courbure de l'espace-temps, il n'était pas exagéré de supposer que d'autres forces étaient susceptibles d'être associées à la courbure, en d'autres dimensions.
Les premiers scientifiques qui spéculèrent sur cette idée furent le physicien polonais Theodor Kaluza, en 1919, et, indépendamment, le physicien suédois Oskar Klein en 1926. Ils suggérèrent que l'électromagnétisme pouvait être relié à la gravité dans un univers à cinq dimensions. Peut-être la force électromagnétique est-elle reliée à une quelconque «courbure» dans une cinquième dimension, de même que la force gravitationnelle est l'effet de la courbure présente dans l'espacetemps quadridimensionnel.
L'idée est séduisante, mais n'est pas sans poser problème. De fait, toute série d'hypothèses surrajoutant des dimensions à l'univers devra expliquer pourquoi l'homme ne fait pas l'expérience de ces dimensions comme il fait l'expérience de l'espace et du temps. La réponse qu'on a proposée est très importante, parce qu'elle ressurgit régulièrement lorsque les physiciens se penchent sur l'éventualité de dimensions supérieures dans l'univers.
Soient un cylindre et un insecte doué d'intelligence. Tant que la circonférence du cylindre est plus large que la taille de l'insecte, l'insecte peut se mouvoir sur les deux dimensions, et sentir qu'il rampe sur une surface bidimensionnelle.

Toutefois, si la circonférence du cylindre devient par trop réduite, l'insecte, lui, croira ramper sur un objet unidimensionnel (une ligne, une corde) et ne pourra se déplacer que vers le haut ou vers le bas.
Maintenant, voyons comment cet insecte pourrait finir par découvrir qu'il y a une autre dimension, correspondant à la circonférence du cylindre. S'il possédait un microscope, il pourrait réussir à distinguer la largeur de la «corde». Toutefois, la longueur d'onde de la radiation nécessaire pour distinguer des dimensions aussi réduites devrait être de l'ordre du diamètre du cylindre, ou plus restreinte encore puisque les ondes ne diffusent l'image d'un objet que s'il est à peu près sur la même longueur qu'elles (cf chapitre 5). Puisque l'énergie d'une radiation augmente à mesure que décroît sa longueur d'onde, il faudrait un certain minimum d'énergie pour distinguer cette « dimension supplémentaire».

Si, d'une façon ou d'une autre, une cinquième dimension se trouvait «cantonnée» dans un cercle étroit, à moins de concentrer une grosse somme d'énergie sur un point réduit, nous ne réussirions sans doute pas à le faire traverser par des ondes pour prouver son existence. Après tout, nous savons que l'espace est tridimensionnel parce que nous en faisons l'expérience avec des ondes qui se déplacent dans l'ensemble des trois dimensions. Si les seules vagues susceptibles d'être envoyées dans la cinquième dimension requièrent beaucoup plus d'énergie que nous ne pouvons en produire, même en utilisant des accélérateurs à haute énergie, alors nous ne pourrons faire l'expérience de cette dimension supplémentaire.
Malgré son intérêt intrinsèque, la théorie Kaluza-Klein demeure donc incomplète. Tout d'abord, elle n'explique pas pourquoi la cinquième dimension serait cantonnée précisément dans une aire aussi réduite. Puis nous connaissons maintenant l'existence de deux autres forces fondamentales dans la nature, hors l'électromagnétisme et la gravité - la force nucléaire forte et la force nucléaire faible. Pourquoi nous en tenir à une cinquième dimension? Pourquoi ne pas définir un nombre de dimensions supplémentaires qui concilierait toutes les forces fondamentales ?
De fait, la physique moderne des particules a ouvert cette possibilité. Les efforts actuels, centrés autour de ce qu'on appelle la théorie des supercordes, ont eu pour but premier d'étendre la théorie générale de la relativité de façon à élaborer une théorie cohérente de la gravité quantique. Toutefois, l'horizon d'une théorie unifiée portant sur l'ensemble des interactions a fini par refaire surface.
J'ai déjà fait l'inventaire des défis propres à l'élaboration d'une théorie qui tenterait de concilier la relativité générale avec la mécanique quantique. La difficulté principale, dans cet effort, consiste à comprendre comment il convient de traiter les fluctuations quantiques dans l'espace-temps. Dans la théorie des particules élémentaires, les excitations quantiques se produisant à l'intérieur de champs - le champ électrique, par exemple - se manifestent sous la forme de particules élémentaires, ou quanta. Si l'on tente de comprendre les excitations quantiques dans le champ gravitationnel, qui correspond dans la relativité générale aux excitations quantiques de l'espace-temps, les mathématiques donnent des prédictions absurdes.
La théorie des supercordes, quant à elle, supposait qu'à des niveaux microscopiques, qui sont le propre d'échelles très réduites (l0-33 centimètres) où les effets de la gravité quantique pourraient être importants, ce que nous considérons comme des particules élémentaires de la dimension d'un point pourraient être résolus sous l'aspect de cordes vibrantes. La masse de chaque particule correspondrait d'une façon ou d'une autre à l'énergie produite par la vibration de ces cordes.
Cette proposition quelque peu excentrique se justifie : on a découvert dès les années soixante-dix qu'une telle théorie nécessitait l'existence de particules ayant des propriétés semblables à celles que présentent les excitations quantiques dans l'espace-temps (ou gravitons). La relativité générale est donc en quelque sens incluse dans une théorie qui pourrait être bien en accord avec la mécanique quantique.
Toutefois, une théorie quantique des cordes ne peut être mathématiquement cohérente avec un contexte qui ferait intervenir quatre, cinq, voire six dimensions. Il se trouve que ces théories ne demeurent cohérentes que dans un contexte qui fait intervenir dix dimensions, voire vingt-six! Le lieutenant Reginald Barclay, momentanément doté d'un QI de 1200 après avoir essuyé le rayon d'une sonde cythérienne, a eu une longue discussion avec Albert Einstein sur le holodeck pour savoir laquelle de ces deux possibilités est la plus agréable lorsqu'il s'agit d'incorporer la mécanique quantique à la relativité générale.
Cette pléthore de dimensions peut paraître un obstacle, mais on n'a pas tardé à reconnaître que, comme beaucoup d'obstacles, elle était également opportune. Toutes les forces fondamentales présentes dans la nature pourraient ainsi être incorporées dans une théorie faisant intervenir dix dimensions, ou plus encore, dans laquelle toutes les dimensions moins les quatre qui nous sont déjà connues seraient cantonnées dans des diamètres de l'ordre de l'échelle de Plank (10-33 centimètres) - c'était la conjecture du lieutenant Barclay - et qui échappent donc actuellement à toute mesure.
Hélas ! nous en sommes restés au stade des espérances. Nous ne savons absolument pas pour l'instant si les suggestions de la théorie des cordes peuvent produire une grande théorie unifiée prenant en compte toutes les données. Comme avec la théorie Kaluza-Klein, personne ne peut expliquer clairement pourquoi les autres dimensions, si elles existent, se cantonneraient ainsi, en abandonnant l'existence sur grande échelle aux quatre autres dimensions de l'espace-temps.
La morale de toute cette saga pourrait être : oui, ma chère, il y a peut-être des dimensions supplémentaires dans l'univers. De fait, nous avons maintenant quelques raisons de les pressentir. Toutefois, ces dimensions supplémentaires ne sont pas du genre à abriter des extraterrestres qui pourraient alors enlever des patients psychiatriques ( ou le commandant Riker, tant qu'on y est). Ce ne sont pas des «univers parallèles». Et ils ne sauraient être mélangés avec les quatre dimensions de l'espace-temps de façon à permettre aux objets de dériver d'un endroit à l'autre dans l'espace en passant à travers une autre dimension, comme le subespace le permettrait dans l'univers de Star Trek.
Néanmoins, nous pouvons écarter la possibilité de « passerelles» micro- ou macroscopiques menant à des univers par ailleurs indépendants ou parallèles. Dans la relativité générale, des régions présentant une haute courbure - à l'intérieur d'un trou noir, ou d'un mini-trou noir- sont considérées comme des passerelles reliant des régions de l'espace-temps potentiellement immenses, sinon indépendantes. Je ne vois aucune raison pour prévoir ces phénomènes en dehors des trous noirs et des mini-trous noirs, si l'on se base sur notre vision actuelle, mais puisque nous ne pouvons pas les éliminer, laissons aux vaisseaux spatiaux de la Fédération toute liberté pour les découvrir.

Les anyons

Dans l'épisode de la Nouvelle génération intitulé «La phase suivante», Geordi Laforge et Ro Laren disparaissent lors d'une confusion entre le téléporteur et une technique de dissimulation romulienne, qui met la matière «hors phase». Ils sont présumés morts, et demeurent invisibles et muets jusqu'à ce que Data, pour une tout autre raison, modifie un « émetteur d'anyons » et les «déphase» miraculeusement.
Si les auteurs de Star Trek n'avaient jamais entendu parler d'anyons, et je suis prêt à le parier, leur adresse à concocter des noms adéquats devient pour ainsi dire surnaturelle. Les anyons sont des constructions théoriques proposées et baptisées par mon ami Frank Wilczek, physicien à l'Institut d'études avancées de Princeton, et ses collaborateurs. Soit dit en passant, il est l'inventeur d'une autre particule, qui pourrait rendre compte de la matière noire, et qu'il a nommée l'axion, d'après un nom de lessive. Or des « puces axioniques » ont fait leur apparition dans Star Trek: elles appartiennent au réseau neural d'une machine avancée. Mais je m'éloigne du sujet.
Dans l'espace tridimensionnel où nous vivons, les particules élémentaires sont désignées comme des fermions et des bosons, selon leur spin. Nous associons à chacune de ces variétés un nombre quantique, qui donne la valeur de leur spin. Ce nombre peut être entier (0, 1, 2, etc.) ou rationnel (1/2, 3/2, 512, etc.). Les particules dotées d'un spin entier sont appelées «bosons», et les particules dotées d'un spin rationnel, « fermions». Le comportement des fermions et des bosons dans le cadre de la mécanique quantique varie : lorsque deux fermions identiques sont inversés, la fonction d'onde quantique décrivant leurs propriétés est multipliée par -1, alors que lorsqu'on inverse des bosons, leur fonction d'onde ne subit aucune altération. C'est pourquoi deux fermions ne peuvent jamais se trouver au même endroit, parce que leur inversion ne changerait rien à leur configuration, mais multiplierait la fonction d'onde par -1. Or la seule chose qui peut être multipliée par - 1 et rester la même est O. Ainsi, la fonction d'onde devrait disparaître. C'est l'origine du célèbre principe d'exclusion de Pauli, qui portait à l'origine sur les électrons: deux fermions identiques ne peuvent investir le même état quantique.
Dans tous les cas, si les particules ne peuvent se déplacer que dans deux dimensions- c'est le cas des êtres bidimensionnels rencontrés par !'Entreprise (voir l'entrée suivante) qui y sont forcés, et c'est ce qui se passe dans le monde réel lorsque des configurations atomiques sont ordonnées dans un cristal de façon que les électrons, par exemple, ne se déplacent que sur un plan bidimensionnel -, les règles habituelles de mécanique quantique s'appliquant à l'espace tridimensionnel sont modifiées. Le spin n'est plus quantifiable, et les particules peuvent recevoir n'importe quelle valeur pour cette quantité. Dès lors, au lieu de fermi-ons ou de bos-ons, on aura des anyons-. D'où ce nom, et cette théorie explorée par Wilczek et d'autres.
Mais revenons aux auteurs de Star Trek. Ce qui m'amuse, c'est que le nombre par lequel la fonction d'onde des particules est multipliée lors d'un échange de particule est appelé une «phase». Les fonctions d'onde de fermions sont multipliées par une phase de - 1, alors que celles des bosons sont multipliées par une phase de 1, et demeurent donc inchangées. Les anyons sont multipliés par une combinaison de 1 et d'un nombre imaginaire (les nombres imaginaires sont les racines carrées des nombres négatifs), et dès lors sont au sens propre « hors de phase» avec les particules normales. Il semble donc raisonnable de penser qu'un « émetteur d'anyons » changerait la phase de l'objet visé, non?

Les cordes cosmiques

Dans l'épisode de la Nouvelle génération intitulé « La perte», l'équipage de l' Entreprise rencontre des êtres bidimensionnels qui ont perdu leur chemin. Ces êtres habitent un « fragment de corde cosmique». Dans l'épisode, ce fragment est décrit comme un mince filament spatial, infiniment petit, exerçant une forte attraction gravitationnelle et vibrant selon une série caractéristique de fréquences subspatiales.
De fait, les cordes cosmiques sont des objets dont on a suggéré qu'ils furent créés au cours d'une transition de phase, dans les premiers temps de l'univers. L'un des experts internationaux de ces objets théoriques vient de rejoindre l'équipe universitaire de Case Western Reserve, et j'entends donc beaucoup parler des cordes cosmiques en ce moment. Leurs propriétés les feraient ressembler en partie aux objets rencontrés par l' Entreprise.
Au cours d'une transition de phase subie par une matière (lorsque l'eau bout, ou gèle), la configuration des particules qui constituent cette matière change. Lorsque l'eau gèle, elle forme une structure cristalline. À mesure que les cristaux alignés en diverses directions se forment, ils se rencontrent pour former arbitrairement des lignes et créent ces figures qui nous paraissent si jolies sur une fenêtre, en hiver. Au cours de la transition de phase, dans les premiers temps de l'univers, la configuration de la matière, de l'énergie, de la radiation et de l'espace vide ( qui, je vous le rappelle, peut convoyer de l'énergie) changea également. Parfois, au cours de ces transitions, diverses régions de l'univers se relâchèrent pour dessiner des configurations diverses. Lorsque celles-ci se développèrent, elles aussi purent se croiser, parfois en un point, parfois le long d'une ligne, et dessiner des frontières entre les régions. L'énergie se trouva emprisonnée dans cette frontière, et forma ce que nous appelons une corde cosmique.
Nous ignorons si les cordes cosmiques apparurent véritablement au cours des premiers temps de l'univers, mais si ce fut le cas, et qu'elles ont perduré jusqu'aux temps présents, elles pourraient réserver des effets fascinants. Elles seraient infiniment fines - plus fines qu'un proton - et pourtant la densité de masse qu'elles convoieraient serait énorme, jusqu'à un million de millions de tonnes par centimètre. Elles pourraient ainsi constituer les semences autour desquelles la matière s'affaisse pour former des galaxies. Elles vibreraient en produisant non pas des harmoniques subspatiales, mais des ondes gravitationnelles. Il se peut que nous détections la signature d'une corde cosmique sous la forme d'une onde gravitationnelle, avant même d'observer ladite corde directement.
Voilà pour les similarités avec la corde évoquée dans Star Trek. Passons maintenant aux différences. À cause de la a conclu à un spin up, les suivantes continueront d'attribuer ce caractère à la particule.
Ce qui ne va pas sans problèmes. Comment, pourriez-vous objecter, la particule peut-elle posséder à la fois un spin up et un spin down avant que mesure ne soit prise? La réponse correcte, c'est qu'elle ne les possède ni l'un ni l'autre. La configuration du spin était indéterminée avant même que les mesures ne soient prises.
Le fait que la fonction d'onde quantique qui décrit les objets ne corresponde pas toujours à des valeurs uniques pour les objets susceptibles d'être observés est particulièrement perturbant lorsqu'on passe aux objets vivants. Il y a un paradoxe célèbre appelé «le chat de Schrôdinger ». (Erwin Schrëdinger est l'un des « jeunes Turcs» de vingt ans, qui, au début de ce siècle, aidèrent à découvrir les lois de la mécanique quantique. L'équation décrivant l'évolution temporelle de la fonction d'onde quantique est connue sous le nom d'équation de Schrëdinger.) Figurez-vous une boîte dans laquelle on a mis un chat. À l'intérieur de la boîte, pointé sur le chat, se trouve un fusil rattaché à une source radioactive. La source radioactive, selon une certaine probabilité quantique, dégénérera à un moment ou un autre. C'est alors que le coup partira, et tuera le chat. La fonction d'onde qui décrit le chat est-elle, avant même que j'ouvre la boîte, une superposition linéaire d'un chat vivant et d'un chat mort? Cela paraît absurde.
De même, notre conscience est toujours unique et n'est jamais indéterminée. L'acte de conscience a-t-il une valeur de mesure? Si c'est le cas, on pourrait affirmer que chaque instant correspond à une probabilité quantique non nulle relative à divers effets possibles, et que notre acte de conscience détermine l'effet dont nous faisons l'expérience. La réalité comporte donc un nombre infini d'embranchements. À chaque instant, notre conscience détermine la branche que nous empruntons, mais il existe a priori un nombre infini de possibilités différentes.
Cette interprétation de la mécanique quantique en termes de « mondes pluriels» - qui veut que, dans une autre branche de la fonction d'onde quantique, c'est Stephen Hawking qui rédige ce livre et moi qui le préface - serait à l'origine des malheurs du pauvre Worf. C'est ce qu'explique Data au cours de l'épisode. Lorsque le vaisseau de Worf traverse une «fissure quantique dans l'espace-temps» tout en émettant un « pulsation subspatiale », les banières entre les réalités quantiques « s'effondrent», et Worf commence à passer d'une branche de la fonction d'onde à une autre, à des intervalles aléatoires, faisant ainsi l'expérience d'une longue série de réalités quantiques alternatives. Cela ne saurait se produire, bien sûr, parce que, une fois la mesure relevée, le système, y compris l'appareil de mesure (Worf, ici), a participé du changement. Une fois que Worf a eu une expérience, il est impossible de revenir en anière (ou de passer à côté, si j'ose dire). L'expérience elle-même suffit à fixer la réalité: c'est dans la nature même de la mécanique quantique.
L'épisode évoque un autre aspect de la mécanique quantique. L'équipage de !'Entreprise réussit à vérifier que Worf appartient à une autre « réalité quantique» en démontrant que sa « signature quantique au niveau atomique» ne ressemble à rien de ce qu'on peut trouver dans le monde. Selon Data, cette signature est unique, et nul processus physique ne saurait la modifier. C'est là du jargon technique, bien sûr, mais on peut le rattacher à une propriété intéressante de la mécanique quantique. La somme totale de tous les états possibles d'un système est définie comme un espace de Hilbert d'après le nom de David Hilbert, le célèbre mathématicien allemand qui, entre autres découvertes, faillit énoncer les lois de la relativité générale avant Einstein. Il anive parfois que l'espace de Hilbert se divise en secteurs indépendants nommés des « secteurs de supersélection ». Il n'est alors aucun processus physique local qui puisse transférer un système d'un secteur à un autre. Chaque secteur est défini par une quantité, par exemple la charge électrique totale du système. Si l'on voulait parler en poète, on pourrait dire que cette quantité fournit une « signature quantique» unique pour ce secteur, puisque toutes les opérations quantiques locales ont lieu dans le même secteur, et que le comportement des opérations et des données observables qui sont associées à ces opérations est déterminé par cette quantité.
Toutefois, les diverses branches de la fonction d'onde quantique d'un système doivent se situer dans un seul et unique secteur de supersélection, parce que chacune d'elles est, en principe, physiquement accessible. Désolé pour Worf: même s'il violait bel et bien les dogmes fondamentaux de la mécanique quantique en sautant d'une branche à l'autre, nulle manifestation extérieure ne viendrait confirmer son témoignage.
Tout l'intérêt de l'interprétation de la mécanique quantique en termes de pluralité de mondes ( ou de toute autre interprétation de la mécanique quantique, du reste), c'est que vous ne pouvez jamais expérimenter plus d'un monde à la fois. Et Dieu merci, d'autres lois de physique interdisent l'apparition de millions de vaisseaux Entreprise venus de réalités différentes, comme c'est le cas à la fin de l'épisode. La simple conservation de l'énergie - un concept purement classique - suffit à l'interdire.

Les solitons

Dans l'épisode de la Nouvelle génération intitulé «De nouveaux fondements», l' Entreprise assiste à une expérience conduite par le Dr J a'Dor, habitant de la planète Bilana III. Il utilise une « vague de solitons», à savoir un ensemble stable d'ondes de distorsion subspatiales, pour enclencher la vitesse de distorsion à bord d'un vaisseau expérimental sans passer par les manœuvres de pilotage habituelles. Ce système requiert une planète qui soit la destination ultime du voyage, laquelle offrira à la vague un champ de dispersion où elle pourra se disperser. L'expérience manque de s'achever en désastre, mais celui-ci est bien sûr évité à la dernière minute.
Les auteurs de Star Trek ne sont pas les inventeurs des solitons. Le terme est une abréviation pour « ondes solitaires» et renvoie de fait à un phénomène observé à l'origine dans les ondes aquatiques par un ingénieur écossais, John Scott Russell, en 1834. Alors qu'il menait en bénévole une étude sur la conception d'un chaland pour la Société unie des canaux d'Édimbourg, il remarqua quelque chose d'étrange. Citons-le :
« J'observais le mouvement d'un bateau rapidement halé le long d'un canal étroit par une paire de chevaux, lorsque le bateau s'arrêta brusquement. Ce ne fut pas le cas de la masse d'eau qu'il avait mise en mouvement dans le canal. Elle s'accumula autour de la proue du vaisseau dans un état d'agitation violente, puis, le laissant derrière elle, poursuivit sa course à grande vitesse, prenant la forme d'un grand renflement isolé, d'une masse d'eau lisse, arrondie et bien définie, qui se propagea le long du canal sans apparemment changer d'aspect ni diminuer sa vitesse. Je la suivis à cheval et la dépassai alors qu'elle continuait de rouler à une vitesse de 10 ou 15 km/h, tout en préservant son aspect d'origine, à savoir quelque 10 mètres de long et de 30 à 50 centimètres de haut. Son poids diminua peu à peu et, après l'avoir poursuivie sur quelque kilomètres,je la perdis dans les détours du canal. C'est donc au mois d'août 1834 que je rencontrai pour la première fois, sans l'avoir prévu, ce phénomène aussi beau qu'étrange que j'ai baptisé l'onde de translation 2. »
Scott Russell inventa par la suite l'expression « onde solitaire» pour décrire cette merveille, et le terme a survécu, même si les solitons ont surgi dans de nombreuses sous-disciplines de la physique. De façon plus générale, les solitons sont des objets stables, d'expansion classique, de dimensions finies, qui se propagent d'un point à un autre. C'est pourquoi les désastres qui fondent l'intrigue de « Nouveaux fondements» ne sauraient se produire dans la réalité. Et d'abord, le soliton ne saurait « émettre un grand nombre d'interférences radios». Si c'était le cas, il dissiperait son énergie. Pour la même raison, il ne saurait accumuler de l'énergie ou changer de fréquence sans interruption.
Les ondes normales sont des objets étendus qui tendent à dissiper leur énergie au cours de leurs déplacements. Toutefois, les forces classiques - qui résultent d'une interaction à travers l'espace, appelé un «champ» - conservent en général les solitons intacts, si bien qu'ils peuvent se propager sans disperser leur énergie dans leur environnement. Parce qu'ils proposent une solution aux équations de mouvement en conservant leur énergie, ils se comportent en principe comme des objets fondamentaux, comme des particules élémentaires. De fait, dans certains modèles mathématiques de l'interaction forte qui maintient soudés les quarks, le proton peut être considéré comme un soliton, ce qui signifierait que nous sommes tous constitués de protons ! On a proposé d'introduire de nouveaux champs dans la physique des particules élémentaires, qui pourraient se condenser pour former des « étoiles à solitons», objets qui auraient la taille d'une étoile, mais relèveraient d'un champ unique et cohérent. Ces objets n'ont encore jamais été observés, mais il se peut qu'ils existent.

Les quasars

Dans l'épisode «Pégase», où nous apprenons l'existence du traité d'Algon qui interdit à la Fédération de faire usage des technologies de brouillage, nous voyons l' Entreprise ( commandée par Picard) explorer le quasar de Mécorie. Auparavant, dans l'épisode de la première saison intitulé «Le sept de Galilée», nous avions appris que le premier vaisseau Entreprise avait reçu l'ordre d'examiner ces objets toutes les fois qu'il en croiserait un. En réalité, ni l'un ni l'autre de ces vaisseaux spatiaux n'aurait la moindre chance de rencontrer un quasar au cours d'une exploration des lisières de notre galaxie. En effet les quasars, qui sont les objets les plus riches en énergie qu'on a repérés dans notre univers (ils déchargent une énergie comparable à celle émise par des galaxies tout entières, tout en étant si petits qu'on ne saurait les observer distinctement au télescope), sont, pense-t-on, d'énormes trous noirs présents au centre de certaines galaxies, qui ingurgitent littéralement la masse centrale de leurs hôtes. C'est l'unique explication qu'on ait pu avancer pour rendre compte de l'énergie et de l'ordre de grandeur qui caractérisent les quasars. Quand la matière chute dans un trou noir, elle décharge une quantité abondante d'énergie (en perdant sa propre énergie gravitationnelle). Si des trous noirs dont la masse serait d'un million ou un milliard de fois la masse solaire existent au centre de certaines galaxies, ils peuvent avaler des systèmes stellaires tout entiers, qui délivreront à leur tour l'énergie nécessaire pour compléter le signal du quasar. C'est la raison pour laquelle les quasars participent souvent de ce que nous nommons « les noyaux galactiques actifs». C'est aussi la raison pour laquelle il vaut mieux ne pas aller les examiner de trop près. La rencontre serait fatale.

Les neutrinos

Les neutrinos sont mes particules préférées dans la nature, et c'est pourquoi je les ai gardés pour la fin. J'ai consacré une bonne partie de ma recherche à ces bébêtes parce que nous ne savons presque rien sur leur compte, quand ils promettent de nous enseigner bien des choses sur la structure fondamentale de la matière et la nature de l'univers.
Dans Star Trek, on utilise ou on mesure à plusieurs reprises les neutrinos à bord des vaisseaux spatiaux. Ainsi, on annonce un taux élevé de neutrinos au moment où des objets traversent le mini-trou noir de Bajora. Nous apprenons également dans l'épisode «L'ennemi» que le viseur de Geordi LaForge peut détecter les neutrinos, lorsqu'une balise à neutrinos est envoyée à sa recherche, pour le rapatrier d'une planète inhospitalière. On rencontre aussi un « champ de neutrinos» dans l'épisode «Jeux de pouvoir», qui interfère momentanément avec la tentative de transporter certaines formes de vie criminelles et incorporelles à bord de l'Entreprise.
On a d'abord deviné l'existence des neutrinos, solution potentielle d'une énigme portant sur la nature de la dégénérescence des neutrons. Quoique les neutrons soient stables à l'intérieur des noyaux atomiques, on a observé que des neutrons libres dégénéraient en l'espace de dix minutes environ, pour former des protons et des électrons. La charge électrique n'en souffre pas parce qu'un neutron est électriquement neutre, alors qu'un proton a une charge positive et qu'un électron a une charge égale et opposée, donc négative. Les masses additionnées d'un proton et d'un électron sont presque supérieures à la masse d'un neutron : il ne reste donc pas beaucoup d'énergie libre pour produire d'autres particules massives au cours de la dégénérescence, de toute façon.
Cependant, on constate parfois que le proton et l'électron partent dans la même direction au cours de la dégénérescence. Ce cas est impossible, parce que chaque particule émise est porteuse d'un moment. Si le neutron d'origine était au repos, son moment était nul, et il aurait fallu qu'une autre particule soit émise afin de convoyer un moment dans la direction opposée.
Cette particule hypothétique fut proposée par Wolfgang Pauli dans les années trente, et baptisée «neutrino» (petit neutron) par Enrico Fermi. Il choisit ce nom parce que la particule suggérée par Pauli se devait d'être électriquement neutre pour ne pas altérer la conservation de la charge dans la dégénérescence, et devait de plus avoir une masse très réduite, puisqu'elle devait être produite grâce à l'énergie restant après l'émission du proton et de l'électron.
Parce que les neutrinos sont électriquement neutres et parce qu'ils n'éprouvent pas la grande force qui relie entre eux les quarks et permet de souder les noyaux, leur interaction avec la matière ordinaire est faible. Pourtant, parce que les neutrinos sont produits au cours de réactions nucléaires, comme celles qui alimentent le Soleil en énergie, ils sont partout. Six cents milliards de neutrinos en provenance du Soleil traversent à chaque seconde chaque centimètre carré de notre corps - un assaut inexorable qui a même inspiré un poème à John Updike. Une telle invasion de neutrinos passe inaperçue parce que les neutrinos traversent les corps sans laisser de traces. En moyenne, ces neutrinos solaires pourraient traverser 10 000 années-lumière de matière avant de produire la moindre interaction avec elle.
Si c'est le cas, comment pouvons-nous être certains que les neutrinos existent autrement qu'en théorie? Eh bien, ce qui est extraordinaire avec la mécanique quantique, c'est qu'elle offre des probabilités. C'est pourquoi j'ai écrit « en moyenne» au paragraphe précédent. Quoique la plupart des neutrinos traversent 10 000 années-lumière de matière sans produire d'interaction, si on a assez de neutrinos et une cible assez large, on peut forcer sa chance.
En 1956, ce principe fut mis en pratique par Frederick Reines et Clyde Cowan, qui établirent une cible de plusieurs tonnes à proximité d'un réacteur nucléaire, et observèrent bel et bien quelques résultats. Cette découverte empirique du neutrino (en fait, il s'agissait de l'antineutrino) se produisit plus de vingt ans après qu'il avait été avancé dans la théorie, et bien après que la majorité des physiciens avaient admis son existence.
De nos jours, nous faisons usage de détecteurs encore bien plus vastes. La première observation de neutrinos solaires fut faite dans les années soixante par Ray Davis et ses collaborateurs. Ils utilisèrent 100 000 gallons de détergent dans une citerne enterrée dans la mine d'or du Goldstake, dans le Dakota du Sud. Tous les jours en moyenne, un neutrino émis par le Soleil interférait avec un atome de chlorine et le transformait en un atome d'argon. Soulignons l'exploit de ces chercheurs qui réussirent à détecter l'alchimie nucléaire avec des taux si réduits. Il se trouve que le taux mesuré par leur détecteur, et tous les détecteurs de neutrinos solaires qui prirent la relève, est différent du taux prédit. Cette « énigme du neutrino solaire», comme on l'appelle, pourrait souligner la nécessité d'élaborer une nouvelle physique fondamentale liée aux neutrinos.
Le plus grand détecteur de neutrinos du monde est en voie de construction dans la mine de Kamiokande, au Japon. Il contient plus de 30 000 tonnes d'eau, et succédera à un détecteur de 5 000 tonnes, l'un des deux détecteurs de neutrinos qui réussit, en 1987, à détecter une poignée de neutrinos issus d'une supernova apparue dans le Grand Nuage de Magellan, à plus de 150 000 années-lumière de la Terre!
Voilà qui me ramène à mon point de départ. Les neutrinos sont l'un des quelques instruments que les physiciens utilisent pour ouvrir des fenêtres sur l'univers. En exploitant tous les genres possibles de détection des particules élémentaires, en plus de nos habituels détecteurs électromagnétiques, nous pourrions découvrir les secrets de la galaxie bien avant de nous lancer dans son exploration. Bien sûr, s'il était possible d'inventer un détecteur à neutrinos de la taille du viseur de Geordi, ce serait d'un grand secours !

10 - La contrée inaccessible

Geordi: « Soudain, c'est comme si les lois
de la physique passaient directement par la fenêtre.»
Data : « Pourquoi pas? Elles sont si gênantes !»
Dans «Le véritable Q »

«Doc, vous me vérifierez aussi l'impossible.»
Kirk à MacCoy dans «Le temps mis à nu»

« Ce que vous décrivez n'est autre que ...
la non-existence.»
Kirk à Spock dans « Le facteur alternatif»

Tout physicien raisonnable qui serait également fan de Star Trek admettra qu'il faut prendre la série avec une certaine distance. Cependant, il y a des moments où, pour une raison ou une autre, les auteurs de Star Trek outrepassent le vague ou l'improbable et présentent des choses absolument impossibles. Si détecter les quelques erreurs techniques de chaque épisode est le passe-temps favori de tous les fans de la série, les erreurs de détail ne sont apparemment pas celles que les physiciens et les étudiants de physique adorent relever. Ils leur préfèrent les énormes gaffes, qui alimentent les pauses-café et les déjeuners lors de colloques professionnels.
Soyons francs : quand la série fait intervenir une donnée de science physique - fût-elle d'importance minime -, elle suscite aussitôt un débat à la pause-café du lendemain. Pour ma part, j'ai encore à l'esprit ce jour où l'un de mes anciens étudiants, Martin White, diplômé de Yale et aujourd'hui à l'université de Chicago, entra dans mon bureau peu de temps après avoir vu Star Trek VI: La contrée inaccessible. J'aurais pensé que nous allions parler des ondes gravitationnelles dans les tout premiers temps de l'univers. Au lieu de quoi Martin se mit à délirer sur une scène précise du film, qui couvre à peu près 15 secondes. Deux assassins casqués envahissent le vaisseau du chancelier Gorkon, neutralisé par des torpilles à photons lancées depuis l' Entreprise, et donc en gravité zéro - et tirent sur tout ce qui bouge, y compris Gorkon. Ce qui nous a impressionnés, Martin et moi, ainsi que maints collègues et étudiants avec qui j'ai parlé de l'épisode, c'est que les gouttes de sang qui volent à travers le navire sont sphériques. Sur Terre, toutes les gouttes de liquide sont de forme allongée, à cause de l'attraction implacable de la gravité. Dans une région dépourvue de gravité comme le vaisseau de Gorkon, même les larmes auraient une forme sphérique. Les physiciens le savent, mais ont rarement l'occasion d'en faire la démonstration visuelle. En veillant à l'exactitude du détail, les responsables des effets spéciaux de Star Trek ont fait le bonheur de tout un tas de physiciens. Il n'en faut pas plus.
Toutefois, les erreurs ne sont pas sans nous captiver. En fait, l'erreur la plus mémorable de Star Trek repérée par un physicien ne relève absolument pas de la physique. Elle m'a été rapportée par le physicien des particules et auteur d'ouvrages scientifiques Steven Weinberg, prix Nobel de physique pour sa collaboration au modèle standard d'interaction de particules élémentaires. Comme je savais qu'il garde toujours la télé allumée pendant qu'il résout des calculs compliqués, je lui ai écrit pour lui demander ses impressions sur Star Trek. Réponse de Weinberg: «La plus grosse erreur de Star Trek, c'est de foutre systématiquement le subjonctif avec "après que"!»
Le plus souvent, toutefois, ce sont les erreurs de physique qui attirent l'attention des physiciens. Je crois que ces erreurs confirment l'idée de beaucoup de physiciens que la physique est très éloignée de la culture populaire - sans parler du sentiment de supériorité que nous éprouvons à nous payer la tête des éminents lettrés qui rédigent les scripts. Peut-on imaginer un long métrage important qui ferait parler Napoléon en allemand, ou placerait la Déclaration d'indépendance au xrx- siècle? Aussi, lorsqu'une erreur physique de ce calibre parvient à s'insinuer dans ce qu'on pourrait, après tout, supposer être une série d'inspiration scientifique, les physiciens la pourfendent avec délectation. J'ai été surpris de découvrir combien de mes collègues distingués - de Kip Thome à Stephen Weinberg, en passant par Sheldon Glashow et Stephen Hawk:ing (peut-être le plus accro de tous) - ont regardé Star Trek. Voici donc une liste de mes gaffes préférées, glanées dans des discussions avec les physiciens sus-nommés et d'autres, ou que d'autres fans m'ont fait parvenir par e-mail. J'ai fait un effort pour me concentrer essentiellement (mais non exclusivement) sur celles qui relèvent d'une physique « ayant bien les pieds sur terre». C'est pourquoi je ne réponds pas aux questions répétées du style «pourquoi la lumière stellaire dessine-t-elle un trait allongé chaque fois qu'on passe en vitesse de distorsion?», ou autres. De même, je laisserai de côté le jargon technique - c'est-à-dire l'usage abusif de terminologies scientifiques et pseudoscientifiques, destinées à offrir un avant-goût des technologies du futur. Enfin j'ai essayé en général de sélectionner des exemples que je n'ai pas déjà traités.

« Dans l'espace, personne ne vous entendra hurler»

Le slogan d'Alien a tout bon, à la différence de Star Trek. Les ondes sonores NE VOYAGENT PAS dans l'espace vide! Et pourtant, lorsqu'une station spatiale en orbite autour de la planète Tanuga IV explose, l'équipage de l'Entreprise l'entend en même temps qu'il y assiste, et nous avec. Pire, nous l'entendons au moment même où nous l'observons. Même si les ondes sonores pouvaient voyager dans l'espace, ce qui n'est pas le cas, la vitesse d'une onde de pression telle que le son est très largement inférieure à la vitesse de la lumière. Il suffit de se rendre à un match de football pour constater qu'on voit les choses avant de les entendre.
Souvent, les cours de physique de lycée incluent l'expérience suivante : on place une sonnerie électrique sous une cloche de verre dont l'air peut être aspiré par une pompe. Lorsque l'air a été entièrement aspiré, le son s'éteint. Dès le xvrr siècle, on a compris que le son requérait un support où voyager. Dans le vide, tel qu'il existe à l'intérieur de la cloche, il n'y a rien qui puisse porter les ondes sonores, et c'est pourquoi on n'entend pas le son qui se produit à l'intérieur. Plus précisément, le son est une onde de pression, ou une perturbation, qui se déplace lorsque certaines zones dont la pression est supérieure ou inférieure à la pression ordinaire se propagent à travers un support. Ôtez le support, et il n'y a plus de pression pour accueillir une perturbation. Soit dit en passant, cette expérience de la cloche est à l'origine d'un mystère que j'ai déjà mentionné, et qui occupe une place essentielle dans l'histoire de la physique. Car si on n'entend plus la sonnerie électrique, on la voit encore! Dès lors, si la lumière est censée être une sorte d'onde, dans quel milieu voyage-t-elle pour ne pas disparaître en même temps que l'air? Cet argument a sérieusement étayé l'hypothèse de l'éther.
Pour ce qui est de Star Trek, je n'avais jamais fait attention aux sons ou à l'absence de sons dans l'espace. Toutefois, après que Steven Weinberg et plusieurs autres eurent mentionné qu'ils se rappelaient des sons associés aux explosions de Star Trek, j'ai vérifié l'épisode que je venais de regarder, « Question de perspective», où la station spatiale de Tanuga IV explose. Et c'était bien ça: BOUM! La même chose se produisit dans l'épisode suivant, où une navette qui transportait des cristaux de trilithium volés à bord de l'Entreprise explosa bruyamment à proximité de la planète Arkaria. Enfin, je me reportai au long métrage le plus récent, Générations. Là, même une bouteille de champagne fait du bruit quand elle explose dans l'espace.
Un de mes collègues physiciens, Mark Srednicki de Santa Barbara (université de Californie) a attiré mon attention sur une gaffe de calibre supérieur, dans un épisode où les ondes sonores servent d'arme contre un vaisseau en orbite. Comme si cela ne suffisait pas, on annonce que les ondes sonores atteignent « 1812 décibels». Il y a de quoi écorcher le tympan sensible des physiciens: l'échelle des décibels est une échelle logarithmique, comme celle de Richter. Ce qui signifie que le nombre de décibels représente déjà une puissance de 10, et qu'ils sont normalisés de façon que 20 décibels soient dix fois plus sonores que 10 décibels, et 30 décibels dix fois plus sonores encore. Un son de 1812 décibels, c'est en fait un son de 101812 décibels - soit 1 suivi de 11 568 313 814 300 zéros de fois plus bruyant qu'un jet!

Plus rapide qu'un phaseur à grande vitesse

Si le voyage en vitesse de distorsion, plus rapide que celle de la lumière, fait partie intégrante des mythes de Star Trek, cette possibilité repose sur toutes les subtilités de la relativité générale et sur de nouvelles formes exotiques de matière décrites plus haut. Mais pour les objets normaux voués à des activités normales, la vitesse-lumière est et sera toujours l'ultime frontière. Parfois, cette vérité première est oubliée. Dans un épisode trépidant intitulé «L'espace d'un clin d'œil», Kirk se fait piéger par les Scalosiens. Pour lui faire épouser leur reine, Deela, ils lui font boire une potion qui accélère ses actes et les ajustent à la vitesse scalosienne. Les Scalosiens vivent en effet leur existence à un rythme hyperaccéléré qui leur permet d'échapper aux senseurs de I'Entreprise. Avant de s'unir nuptialement à la reine, Kirk tente de lui tirer dessus avec son phaseur. Toutefois, comme elle peut se déplacer en l'espace d'un clin d'ceil (humain), elle s'écarte de la trajectoire du tir avant même que le rayon ne la touche. Qu'est-ce qui cloche dans cette scène ? La réponse est : absolument tout !
Ce que certains fans ont remarqué, c'est que le taux d'accélération nécessaire à Deela pour bouger pendant le laps de temps que mettra le rayon du phaseur à traverser la chambre, à vitesse-lumière, ne cadre pas avec le reste de l'épisode. La lumière voyage à une vitesse de 300 millions de kilomètres à la seconde. Deela se trouve à un mètre environ de Kirk lorsqu'il tire : le rayon devrait mettre 1/300 000 de seconde pour la toucher. Si, pour elle, cet intervalle correspond à 1 ou 2 secondes, c'est que le temps scalosien est 300 millions de fois plus rapide que le temps ordinaire. Et, si c'est bien le cas, 300 millions de secondes scalosiennes équivalent à 1 seconde du temps ordinaire, tel qu'il est vécu à bord de l' Entreprise. Hélas, 300 millions de secondes, cela représente environ 10 ans!
Bon, pardonnons cette petite absence aux auteurs de Star Trek. Elle pose toutefois un problème plus grave, impossible à résoudre, et sur lequel plusieurs physiciens de ma connaissance ont mis le doigt. Les phaseurs, nous dit-on, sont des armes à énergie canalisée, dont les rayons voyagent à vitesselumière. Désolé, mais il faut bien l'admettre. Si les phaseurs sont composés d'énergie pure et non de rayons de particules, comme l'indiqu~ le manuel technique de Star Trek, leurs rayons voyagent à la vitesse-lumière. Ainsi, quelle que soit la vitesse à laquelle on se déplace, même si l'on la multiplie par 300 millions, il est impossible d'échapper à la trajectoire d'un rayon de phaseur qui arrive sur vous. Pourquoi? Parce que, pour savoir qu'il arrive sur vous, il vous faut d'abord voir que le coup part. Or la lumière qui fonde cette perception voyage à la même vitesse que le rayon. En termes plus simples, impossible de savoir qu'il va vous toucher avant d'être touché! Tant que les rayons de phaseurs seront composés d'énergie pure, on ne pourra leur échapper. Un problème similaire, mettant en scène une tentative de dévier un rayon de phaseur, apparaît dans l'épisode de Voyageur intitulé « Le Phage».
Parfois, cependant, ce sont les critiques de Star Trek qui se trompent. On m'a ainsi suggéré de relever une erreur dans Générations : une étoile qui éclaire une planète disparaît, et aussitôt la planète tombe dans l'obscurité. C'est impossible, bien sûr, parce que la lumière met un temps déterminé pour voyager de l'étoile à la planète. Lorsque j'éteins la lumière d'une étoile, la planète ne le saura pas avant un certain temps. Toutefois, dans Générations, le processus est observé intégralement depuis la surface de la planète. Si la perspective est celle de la planète, dès l'instant où l'étoile explose, la surface de la planète doit effectivement s'obscurcir. L'information que l'étoile a implosé et l'absence de la lumière parviendront en effet simultanément à la planète. Les deux seront retardées, mais elles coïncideront !
Certes, les auteurs ne se sont pas trompés, mais ils gâchent tout en réduisant à l'excès le délai. On nous dit que la sonde qui détruira l'étoile ne mettra que 11 secondes pour l'atteindre après le tir opéré sur la surface de la planète. La sonde voyage à vitesse sub-lumineuse - nous pouvons le déduire du fait qu'il faut moins du double de ces 11 secondes après le lancement de la sonde, pour que les observateurs, présents sur la planète, voient l'étoile commencer à imploser, ce qui indique que la lumière a dû mettre moins de 11 secondes pour faire le voyage du retour. La Terre, par comparaison, est à une distance de 8 minutes-lumière de notre soleil, comme je l'ai dit. Si le Soleil explosait maintenant, nous mettrions huit minutes pour le réaliser. J'ai du mal à croire que la planète de catégorie M de Générations pourrait exister à une distance de 10 secondeslumière d'une étoile à combustion d'hydrogène comme notre soleil. Cette distance multiplie par cinq la taille du soleil - c'est bien trop proche pour ne pas susciter un léger malaise.

Une faille dans l'horizon événementiel ... ou dans le scénario

Bien que j'aie promis de ne pas m'appesantir sur le jargon technique, je ne peux m'empêcher d'applaudir à la série Voyageur, qui bat tous les records dans ce domaine. Elle recourt à tout ce que la physique moderne comporte de jargon, tandis que le Voyageur tente de rentrer à sa base et voyage dans le temps avec une régularité d'horloge. Toutefois les termes de physique ont en général un sens, et lorsqu'on les exploite simplement pour consolider une intrigue, on se prendra inévitablement les pieds dans le tapis de temps à autre. J'ai mentionné dans le chapitre 3 que la «faille» dans l'horizon événementiel qui permet la rescousse du Voyageur ( dans cet épisode insensé intitulé « Le Phage ») fait particulièrement rigoler les physiciens. Introduire une «faille» dans un horizon événémentiel, c'est comme ôter une extrémité à un cercle, ou être un peu enceinte. Cela ne veut strictement rien dire. L'horizon événementiel qui entoure un trou noir n'est pas une entité physique, mais un lieu à l'intérieur duquel toutes les trajectoires demeurent à l'intérieur du trou. C'est une propriété de l'espace courbe que toute trajectoire, y compris celle de la lumière, se courbera en arrière sous l'attraction du trou, une fois que l'on sera à l'intérieur d'un certain rayon. Soit l'horizon événementiel existe, et avec lui le trou noir, soit il n'existe pas. Une aiguille ne passerait pas à travers, encore moins le Voyageur.

Le docteur a-t-il les reins solides ?

Je reconnais qu'en ce qui concerne les prouesses technologiques le docteur holographique de la série Voyageur est parmi mes préférées. Il y a une scène merveilleuse dans laquelle un patient demande au docteur comment il se fait qu'il soit solide s'il est un hologramme. Bonne question ... Le docteur répond en débranchant un « rayon de confinement magnétique» pour montrer que, sans lui, il est aussi incorporel qu'un mirage. Puis il ordonne de rebrancher le rayon, histoire de flanquer quelques gifles au patient. C'est là une scène savoureuse, mais, hélas, impossible. Comme je l'ai écrit dans le chapitre 6, le confinement magnétique accomplit des miracles sur les particules chargées d'électricité, qui rencontrent, dans un champ magnétique constant, une force qui les fait se déplacer en orbites circulaires. Toutefois, la lumière n'est pas chargée. Elle ne rencontre aucune force dans un champ magnétique. Puis" qu'un hologramme n'est qu'une image lumineuse, le docteur ne l'est pas moins.

De vos mains ou de votre postérieur, quel est le plus sensible?
Des dilemmes de l'interphase

Star Trek a parfois commis ce que j'appelle l'horrible erreur de Ghost. Je fais référence à un film récent qui porte ce titre, et où le personnage principal, un fantôme, passe à travers les murs et ne peut pas soulever des objets parce que sa main les traverse. Toutefois, comme par miracle, chaque fois qu'il s'asseoit sur une chaise ou sur un divan, son postérieur reste en place. De même, il ne passe pas à travers le sol. Dans le dernier chapitre, j'ai décrit la façon dont Geordi LaForge et Ro Laren sont mis « hors phase» par rapport à la matière normale par un « générateur d'interphase » romulien. Ils découvrent à leur grande surprise qu'ils sont invisibles et peuvent traverser les gens et les murs - Ro croit un moment qu'elle est morte (peutêtre a-t-elle vu une rediffusion de Ghost quand elle était petite). Et pourtant, Ro et Geordi s'appuient sur le plancher et s'asseoient sur des chaises impunément. La matière, c'est la matière: chaises et plancher ne diffèrent pas des murs, que je sache, et vos pieds et fesses ne sont pas plus ou moins solides que vos mains.
Au passage, il y a une autre erreur fatale dans cet épisode qui ruine la cohérence d'un bon nombre d'autres épisodes palpitants de Star Trek. En physique, deux choses qui toutes les deux réagissent réciproquement avec une troisième réagiront nécessairement réciproquement entre elles. Ce qui boucle la boucle en nous ramenant à la loi première de Newton. Si j'exerce une force sur vous, vous exercerez une force égale et inverse sur ma personne. Ainsi, si Geordi et Ro peuvent observer l' Entreprise quand ils sont dans leur nouvelle «phase», c'est qu'ils réagissent à la lumière, qui est une onde électromagnétique. Ne serait-ce qu'en vertu de la loi de Newton, ils devraient donc être visibles. Le verre est invisible précisément parce qu'il n'absorbe pas la lumière visible. Pour voir - pour être sensible à la lumière - il faut l'absorber. En absorbant la lumière, on ne peut que la perturber. Et perturber la lumière, c'est être visible pour un autre. La même chose vaut pour les « insectes d'interphase » invisibles qui envahissent l' Entreprise en s'accrochant aux corps des membres d'équipage dans l'épisode «Fantasmes». La force qui leur permet de reposer sur la matière normale sans passer à travers elle n'est rien d'autre que l'électromagnétisme (la répulsion électrostatique entre les particules chargées qui relient les atomes d'un corps aux atomes d'un autre corps). Lorsque vous interagissez électromagnétiquement, vous faites partie de notre monde.

Jeter le bébé avec l'eau du bain

Dans l'épisode de la Nouvelle génération intitulé «Mon beau vaisseau», l' Entreprise se gare pour subir un « nettoyage de baryons». Ces particules, semble-t-il, s'agglutinent sur les superstructures des vaisseaux au cours de longs voyages en vitesse de distorsion et doivent être éliminées. Au cours du nettoyage, l'équipage doit être évacué, parce que le rayon nettoyeur est nocif pour les tissus vivants. Et comment! Les seuls baryons stables sont 1) les protons, 2) les neutrons, dans les noyaux atomiques. Ces particules composant tout ce qui est visible dans ce monde, en débarrasser l' Entreprise ne laisserait pas grand-chose pour les épisodes suivants.

C'est froid, le froid

La gaffe qui a les faveurs de mon collègue et ami Chuck Rosenblatt, grand fan de Star Trek, concerne un objet congelé à une température de - 295. Voilà une découverte bien excitante: sur l'échelle de Celsius, le zéro absolu correspond à - 273. Le zéro absolu, comme son nom l'indique, est la température la plus basse qu'on puisse potentiellement atteindre - elle se définit comme la température à laquelle cessent les mouvements moléculaires et atomiques, les vibrations et rotations. Bien qu'il soit impossible d'atteindre ce degré théorique, des systèmes atomiques ont pu être refroidis à hauteur d'un millionième de degré - et, au moment où j'écris, à deux milliardièmes de degré - au-dessus du zéro absolu. Puisque l'idée même de température est corrélée aux déplacements moléculaire et atomique, on ne saurait obtenir moins qu'une absence de mouvement. Même dans 400 ans, le zéro absolu sera toujours absolu.

Que la lumière soit!

J'avoue non sans embarras que cette erreur grossière m'a été révélée par un étudiant en physique de première année, Ryan Smith - lors d'un cours, j'avais informé la classe que je rédigeais ce livre. Toutes les fois qu'un membre de !'Entreprise tire un rayon de phaseur, celui-ci nous est visible. C'est bien sûr impossible à moins que le phaseur lui-même n'émette de la lumière dans toutes les directions. La lumière n'est visible que lorsqu'elle rebondit sur un objet. Si jamais vous avez assisté à une conférence où l'on fait usage d'un pointeur laser - en général, ce sont des lasers rouges hélium-néon -peut-être vous rappellerez-vous que seul est visible le point où le laser touche l'écran. Pour donner à voir le rayon tout entier, il faut diffuser un nuage de poussière dans la pièce en frappant l'une contre l'autre deux éponges à tableau noir, ou autre recette de ce genre. (Essayez donc un jour: le spectacle-lumière qui en résulte est assez étourdissant.) Les shows-laser consistent à faire rebondir la lumière du laser sur de l'eau ou de la fumée. Ainsi, à moins que l'espace vide ne soit particulièrement poussiéreux, nous ne devrions pas voir le rayon de phaseur, excepté à l'endroit précis où il touche son objet.

Les astronomes font la fine bouche

On apprendra sans surprise que, lorsque des gens détectent des erreurs dans la série, celles-ci relèvent généralement des domaines qui les intéressent. En interrogeant les gens pour recueillir des exemples, j'ai systématiquement collecté des réponses liées aux occupations spécifiques des intéressés. J'ai reçu plusieurs e-mail de fans astronomes qui réagissaient à des erreurs subtiles de Star Trek. Un étudiant en astronomie m'a même cité un cas où les auteurs ont déployé tous leurs efforts pour déguiser en erreur un fait avéré d'astronomie. La forme de vie dévoreuse d'énergie qui, dans «L'enfant de la galaxie», prend l' Entreprise pour sa maman et se met en devoir de têter son énergie est une créature spatiale en bas âge. À la dernière seconde, LaForge invente un moyen de faire lâcher prise au bébé. Celui-ci est séduit par la radiation émise par l' Entreprise sur une longueur d'onde de 21 centimètres. En changeant la fréquence émise, l'équipage « fait tourner le lait», et le bébé lâche prise. Ce qui fait l'intérêt de l'épisode, et le dénonce comme erroné, c'est que les auteurs se sont inspirés d'un fait que j'ai cité dans le chapitre 8: la radiation de 21 centimètres est une fréquence universelle émise par l'hydrogène, que les astronomes exploitent pour dresser la carte des gaz interstellaires. Les auteurs ont cru que cela signifiait que tout émet des radiations à 21 centimètres, y compris l' Entreprise. En fait, la transition atomique dans l'hydrogène responsable de cette radiation est extrêmement rare: un atome donné dans l'univers ne l'émettra qu'environ une fois tous les quatre cents ans. Toutefois, comme l'univers est rempli d'hydrogène, le signal de 21 centimètres est assez fort pour être détecté depuis la Terre. Dans ce cas précis, je donnerais aux auteurs 20/20 pour leur bonne volonté, puis descendrais la note à 15 pour leur erreur d'interprétation (mais je suis connu pour noter large).
À la NASA, un scientifique a pointé une erreur que j'avais laissé passer, mais qui ne saurait échapper à un membre de la NASA. La pratique ordinaire des astronefs est de se mouvoir en orbite géostationnaire autour des planètes : la période orbitale du vaisseau est la même que celle de la planète. Le vaisseau stationne donc au-dessus d'un point constant de la surface de la planète, comme les satellites météorologiques géostationnaires avec la Terre. Pourtant, quand on voit l' Entreprise se mettre en orbite au-dessus d'une planète, l'on voit en arrièreplan la planète se déplacer. Si le stationnement en orbite n'est pas géostationnaire, la téléportation posera de gros problèmes.

Ces sacrés neutrinos

Pardon, mais je ne peux m'empêcher de ressortir mes neutrinos. Comme je suis passé un peu vite sur Profondeur Espace 9 dans cet ouvrage, c'est lui rendre justice que de finir avec une bourde glanée dans cette série, et que m'a citée David Brahm, un autre fan physicien. Quark s'y empare d'une machine qui altère les lois de la probabilité dans son environnement immédiat. Vous imaginez l'intérêt dans les casinos - le genre d'avantages auxquels un Ferengi. ne peut résister. La ruse est toutefois éventée par Dax, qui analyse le flux de neutrinos traversant la station spatiale. À sa grande surprise, elle découvre que tous ces neutrinos sont gauchers : tous, ils tournent dans un seul sens. Il y a sûrement quelque chose qui cloche! Les neutrinos qui tournent dans le sens opposé semblent tous avoir disparu !
Hélas, entre tous les phénomènes physiques qu'ils auraient pu exploiter pour mettre à nu les supercheries de Quark, les auteurs ont trouvé le moyen de sélectionner un fait authentique ! À notre connaissance, les neutrinos sont effectivement gauchers ! Ces particules sont dans toute la nature les seules qui n'ont, apparemment, qu'un seul état de spin. Si l'analyse de Dax révèle cette information, elle devrait avoir toutes les raisons de penser que les choses sont normales.
Ce qui, à mon avis, fait le sel de cet exemple est très exactement ce qui fait l'intérêt de la physique de Star Trek : parfois, il faut reconnaître que la vérité est plus étrange que la fiction.

Épilogue

Voilà pour la physique et pour les gaffes. Si j'ai raté votre gaffe préférée ou votre axiome favori, transmettez vos suggestions à mon éditeur. Si elles sont assez nombreuses, nous pourrons, comme dans Star Trek, songer à une suite. J'ai déjà un titre: La physique de Star Trek Il: La colère de Krauss.
Si j'ai conclu cet ouvrage sur une liste de bourdes, ce n'est pas pour fustiger indûment les auteurs de Star Trek, mais pour montrer qu'il y a plusieurs façons d'apprécier la série. Tant que Star Trek sera dans l'air du temps, je suis sûr que ces erreurs alimenteront les conversations des fans de tout genre, des lycéens aux professeurs d'université. Et Star Trek oblige les auteurs et les producteurs à se tenir au fait d'un univers scientifique en constante expansion.
Je conclurai donc ce livre comme je l'ai commencé - non pas avec les erreurs, mais avec les ouvertures possibles. Notre culture a été formée autant par les miracles de la physique moderne (Newton et Galilée inclus) que par les autres efforts intellectuels de l'humanité. Et si, malheureusement, l'idée circule que la science n'appartient pas à la culture, il faut pourtant admettre qu'elle est un élément vital de notre civilisation. Nos explorations de l'univers constituent l'une des découvertes les plus remarquables de l'esprit humain, et il est bien dommage qu'elles ne touchent pas un public aussi large que celui qui goûte la grande littérature, la peinture ou la musique.
En soulignant le rôle potentiel de la science dans le développement de l'espèce humaine, Star Trek souligne non sans fantaisie le rapport puissant qui unit science et culture. J'ai pu affirmer que la science du XXIIIe siècle aura peu de rapport avec les produits de l'imagination des auteurs de Star Trek : je n'en pense pas moins que la science de demain sera plus remarquable encore. Je suis persuadé que la physique d'aujourd'hui et de demain déterminera notre avenir de façon aussi précise que la physique de Newton et de Galilée à l'égard de notre existence actuelle. Sije suis un scientifique, c'est aussi parce que j'ai foi dans la capacité de notre espèce à découvrir les merveilles cachées de notre univers. Et c'est bien, après tout, l'esprit qui anime Star Trek. Peut-être faut-il laisser le dernier mot à Gene Roddenbury. Comme il l'a déclaré à l'occasion du vingt-cinquième anniversaire de la série, un an avant sa mort : « L'homme est une créature remarquable, ses capacités sont considérables, et j'espère que Star Trek a contribué à montrer ce à quoi nous pouvons prétendre, si nous avons foi en nous-mêmes et en nos possibilités.»

Notes

Chapitre 1 : Newton est le premier à miser
1. Michael Okuda, Denise Okuda, Debbie Mirak, Star Trek Encyclopedia, New York, Pocket Books, 1994.
2. Rick Sternbach, Michael Okuda, Star Trek: The Next Generation - Technical Manual, New York, Pocket Books, 1991.

Chapitre 2 : Einstein relance la partie
1. Cité dans Albert Einstein : Philosopher-Scientist; éd. Paul Schilpp, New York, Tudor, 1957.
2. Rick Sternbach, Michael Okuda, Star Trek: The Next Generation - Technical Manual, op. cit.
3. Ibid.

Chapitre 3 : Hawking abat ses cartes
1. Michael Okuda, Denise Okuda, Debbie Mirak, The Star Trek Encyclopedia, op. cit.

Chapitre 8 : À la recherche de M. Spock
1. Voir la critique de Philip Morrison dans le Scientific American (novembre 1994) de l'ouvrage de Bert Hôlldobler et Edward O. Wilson, Voyage chez les fourmis: une exploration scientifique, trad. fr. David Olivier, Paris, Seuil, 1996.
2. Francis Crick, La vie vient de l'espace, trad. fr. René Bernex, Paris, Hachette, 1982.
3. Bernard M. Oliver, «The Search for Extraterrestrial Life », Engineering and Science ( décembre 1974 ).

Chapitre 9 : Toute une ménagerie de possibilités
1. En anglais, any signifie « n'importe lequel » et renvoie à la valeur indéterminée de la particule. (N.D.T.)
2. Pour une étude plus poussée de ce thème, je suggère de consulter mon propre ouvrage, The Fifth Essence: The Search for Dark Matter in the Universe, New York, Basic Books, 1989. 3. John Scott Russell, Report on the J 4th Meeting of the British Association for the Advancement of Science, Londres, John Murray, 1844.

Remerciements

Maintes personnes méritent ma gratitude pour avoir contribué à la publication de ce livre. Elle va d'abord à mes collègues de la communauté physicienne, qui ne sont jamais restés sourds à mes appels à l'aide. Je remercie notamment Stephen Hawking, qui a spontanément accepté de rédiger la préface, ainsi que Steven Weinberg, Sheldon Glashow et Kip Thorne qui m'ont fait partager leurs souvenirs de Star Trek. John Peoples, le directeur du Fermilab, a mis à ma disposition certains de ses collaborateurs qui m'ont aidé pour le chapitre sur la production et le stockage de l'antimatière. Je remercie tout particulièrement Judy Jackson, responsable des relations publiques au Fermilab, pour ses renseignements et ses photographies, et mon collègue de l'université de Case Western Reserve, Cyrus Taylor, qui mène en ce moment un programme d'expérimentation au Fermilab, pour avoir répondu à diverses questions techniques. Paul Horowitz, de l'université Harvard, a donné suite à mes demandes sur les programmes de SETI et de META qu'il a menés, en me faisant parvenir le jour même un coffre aux trésors d'informations sur les recherches en matière d'intelligence extraterrestre, et des photographies de ces recherches. George Smoot a offert la superbe photographie du satellite COBE qui figure dans le texte, et Philip Taylor m'a indiqué une référence pour le chapitre sur les solitons.
Un bon nombre de fans physiciens m'ont donné spontanément leur opinion sur la physique de Star Trek. Ma gratitude va tout particulièrement à Mark Srednicki, Martin White, Chuck Rosenblatt, et David Brahm, qui ont proposé des exemples utiles tirés des séries. Je voudrais également remercier les fans qui ont répondu à la demande que j'avais fait paraître sur le site Star Trek d'Internet quant aux erreurs de physique commises dans la série, notamment Scott Speck de la NASA, J. Goldstein, Denys Proteau et J. Dilday, qui ont cautionné mes propres choix ou ont suggéré d'autres exemples utiles. Je voudrais enfin remercier les étudiants de Case Western Reserve qui ont contribué spontanément à cette recherche, notamment Ryan Smith.
D'autres fans ont offert d'importantes contributions. Je voudrais remercier Anna Fortunato, qui a lu et commenté les premières ébauches du manuscrit, et a fait bien des suggestions utiles, tout comme Mark Landau des éditions Harper Collins. Jeffrey Rabbins, ex-éditeur des Presses universitaires d'Oxford, m'a gracieusement fait parvenir une référence importante sur la vitesse de distorsion. Mon oncle Herbert Title, fan enthousiaste de la série, a relu l'intégralité du manuscrit, tout comme mon collègue physicien Peter Keman. Tous deux m'ont fait d'utiles commentaires. J'ai pu également compter sur mon épouse Kate, qui a relu diverses parties du manuscrit.
Toute ma gratitude à Greg Sweeney et J anelle Kerberle, qui m'ont prêté leur collection complète et indexée de vidéos Star Trek, qu'ils ont laissée à ma disposition pendant les quatre mois de la rédaction de ce livre. Ces vidéos ont été vitales pour moi, et ont servi constamment à vérifier certaines données et certains rebondissements. Je les remercie de m'avoir ainsi confié leur collection.
Je voudrais remercier tout spécialement mon éditeur de Basic Books, Susan Rabiner, sans qui ce projet n'aurait jamais vu le jour. C'est elle qui m'a finalement convaincu de l'entreprendre, et elle a consacré tous ses efforts à faire aboutir le projet auprès de Basic et de Harper Collins. Dans la même optique, je remercie aussi Hermit Kummel, le directeur des éditions Basic Books, pour son soutien enthousiaste. La conception finale de ce livre doit également beaucoup à l'intelligence et à l'intuition de Susan Lippincott, responsable de la collection. Toutes les heures que nous avons passé sur nos fax et à nos téléphones respectifs ont contribué, je le crois, à améliorer notablement le manuscrit.
Enfin j'aimerais remercier le doyen, les institutions, les enseignants et étudiants du Collège des sciences humaines et du département de physique de l'université de Case Western Reserve pour le soutien moral et souvent l'indulgence qu'ils ont manifestés au cours de la rédaction de cet ouvrage. L'atmosphère d'enthousiasme collégial qu'ils ont entretenue autour de moi m'a insufflé l'énergie nécessaire pour mener à bien ce projet.
Comme toujours, ma famille m'a apporté tout son soutien moral. Kate et ma fille Lili ont souvent veillé tard le soir pour regarder Star Trek avec moi, même si elles auraient sans doute préféré aller se coucher.

Table des matières

Préface

Introduction

Première partie: Une partie de poker cosmique
1. Newton est le premier à miser
2. Einstein relance la partie
3. Hawking abat ses cartes
4. Data conclut la partie

Deuxième partie : De l'importance de la matière
5. Bits ou atomes
6. Pour 1 dollar d'énergie
7. Holodecks et hologrammes

Troisième partie : L'univers invisible
8. À la recherche de M. Spock
9. Toute une ménagerie de possibilités
10. La contrée inaccessible

Épilogue

Notes

Remerciements

Table des matières

F I N

Cette ligne de programmation ne sert qu'a formaté proprement les lignes de textes lors d'un utilisation sous Mozilla Firefox. J'aimerais pouvoir m'en passer mais je ne sait pas comment, alors pour l'instant. Longue vie et prospèrité