Sciences facts 2202

En gros, plutôt que de vous faire un pavé sur l’état de toutes les connaissances scientifiques du 23ème siècle, chose qui est quelque part déjà faite au travers des différents chapitres sur l’univers, sur l’histoire et, enfin, sur la technologie et ses applications en 2202, on va plutôt citer quelques faits éclairants, pour éviter les redites, sur des points de science, surtout de physique, d’ailleurs, que nous n’avons pas abordés.

À noter que, pour qui n’aurait pas encore compris, nous sommes ici dans une fiction. Si certains points concernant les sciences sont crédibles ou vraisemblables, ils sont, dans le meilleur des cas vulgarisés et fortement simplifié, dans le pire des cas, du pur domaine de l’imagination. Si Singularités se prétends proposer un futur scientifiquement crédible et cohérent, ça n’empêche que nous avons inventé et imaginé plein de choses. Y compris des concepts physiques qui sont, actuellement, à l’état de recherches et qui peuvent très bien, le temps que sorte ce livre et que vous le lisiez, avoir été résolus, en proposant une solution totalement différente de ce que nous avons choisis d’imaginer.

Et c’est d’ailleurs pour cela que notre premier science fact est sur la matière noire, une énigme astronomique et physique majeure, qui sera sans doutes résolue dans les années à venir, sans qu’on sache encore vraiment quelle sera la réponse à cette énigme. Donc, nous, on a décidé de l’imaginer, à l’aune de ce que nous savons sur le sujet en 2022.

La matière noire

Ok, alors, elle n’existe pas, en fait. Du moins, pas telle quelle, c’est-à-dire pas sous forme de particules exotiques interagissant si peu avec la matière et la lumière que trouver comment l’observer est presque impossible. La matière noire a d’ailleurs perdu son nom, en physique et en astronomie, pour être baptisée le champ mémétique, c’est-à-dire la masse propre à l’information dans un système.

Toute information, aussi brève soit-elle dans le temps, a en effet une masse propre, qui diffère de la masse corpusculaire. Celle-ci est infime individuellement mais, vu que tout dans le réel est avant tout une information, y compris le vide lui-même, c’est-à-dire un espace théoriquement dépourvu de la moindre matière (dans les faits, y’en a toujours qui circule ou qui est générée par les fluctuations quantiques, mais en quantité négligeable), cette masse d’information devient gigantesque à l’échelle des galaxies et explique la présence d’une masse supplémentaire dans l’univers observable huit fois plus abondante que la matière visible.

La découverte, qui date de la toute fin du 21ème siècle, a été faite par l’équipe du professeur Hansa, dans les laboratoires de l’université de physique de Nairobi, avant d’être confirmée par plusieurs autres. La masse de l’information a ainsi pu être mesuré et au cours des années qui ont suivi, être vérifiée par l’observation astronomique, ouvrant la voie à d’autres recherches sur la nature du vide et de l’énergie sombre.

L’énergie sombre

Aussi l’antimasse & la mécanique quantique, d’ailleurs.

On en parle déjà ailleurs, car c’est à partir des recherches sur la nature du vide et de l’énergie sombre qu’est née, en 2108, la théorie de Shackton et Ishiro, plus communément connue sous le nom d’antimasse, qui a révolutionné la technologie et les sciences de la Nouvelle Humanité.

Pour faire simple, le vide n’est pas « vide » du tout. Il se comporte en permanence comme un champ quantique, un point zéro d’énergie qui fluctue, d’autant plus que ce volume de vide est petit, c’est cer que l’on appelle communément l’énergie du vide. Bon, dit comme ça, ça ne nous aide guère, mais en fait, il faut surtout retenir que la théorie de Shackton et Ishiro démontre que cette énergie vient de quelque part, un autre espace (en fait, des tas de petits espaces locaux) que l’on nomme les endoespaces, et qui sont à la base de tous les étranges phénomènes quantiques (incertitude, intrication, etc.).

Dans ces endoespaces sont regroupés tous les événements qui auraient pu avoir lieu à un temps T, quand un seul évènement s’est déclaré. Pour une particule, quand elle est mesurée, on connait une information seule, par exemple sa position, parmi une immensité de possibilités. L’idée générale admise était que toutes les autres informations, comme toutes ces positions, étaient perdues ; mais Shackton et Ishiro ont pu prouver qu’il n’en est rien. Toutes les possibilités sont là, dans un endoespace parmi une immensité d’autres. Ce qui fondamentalement est une révolution en physique, puisqu’elle permet de mieux comprendre et prédire les bizarreries de la mécanique quantique, mais qui a introduit une application technique à cette physique.

Le vide génère, depuis les endoespaces, des particules à très brêve durée de vie, mais surtout, à masse négative ; autrement dit, il crée une antimasse : celle-ci, qui a donc une masse, mais répulsive pour toute la matière connue, exerce une pression à grande échelle, occupant tous les espaces vides qui fait se repousser les grands systèmes dans le cosmos, comme les galaxies et amas de galaxie. L’énergie sombre est une antimasse en constante fluctuation qui remplit le vide. Et cette antimasse, permets désormais, au 23ème siècle, de générer des effets de compensation positive ou négative, de la gravité, même si la Nouvelle Humanité est très loin de parvenir à maitriser la gravité, pas plus que l’inertie.

La Grande Unification

Alors, si vous ne savez pas, la physique a longtemps eu un gros problème (pour les lecteurs, elle l’a toujours au 21ème siècle) : l’éléctromagnétisme, l’interaction nucléaire forte, et l’interaction nucléaire faible, c’est-à-dire les bases de la physique des particules, ne s’unifient pas avec la gravité, cette dernière ne pouvant entrer dans une seule équation générale qui expliquerait toutes les forces. C’est ce qu’on appelle la « théorie du tout ».

Alors, au 23ème siècle, cette équation n’est pas encore totalement résolue, car elle soulève encore des problèmes entre la théorie et l’observation, mais elle a particulièrement avancé avec la théorie du champ mémétique, qui définit que toute information possède sa propre masse et que la masse et la gravité sont donc émergents de l’information, qui elle-même est la constituante première de toute particule dans l’univers.

Sincèrement, ça n’intéresse que les plus pointus et perchés des théoriciens de la physique fondamentale, mais comme la recherche des données permettant d’achever de résoudre cette équation est à la source des plus énormes expériences et machines scientifiques du 23ème siècle et que c’est un sujet qui passionne entre autres pas mal de Consciences Artificielles, le sujet avait donc sa place ici.

Le temps

Ha, voyager dans le temps, le grand rêve de la science-fiction et d’une bonne partie de l’humanité. Eh bien, l’expérience, aussi bien dans le futur que le passé, a été tenté et réussi… et elle s’est montré aussi bien décevante que passionnante.

Passons sur l’explication du fonctionnement d’une machine à voyager dans le temps, conçue par le Nuclear Science Center de l’Université Impériale de Chine dans les années 2140. Il s’agit d’un modèle de vortex, basé sur la même physique que le trou de ver du Seuil. La déformation du tunnel permet de modifier la flèche du temps, en avant (dans le futur) ou en arrière (dans le passé). L’appareillage nécessite une énergie colossale et une technologie qui feraient passer une centrale à fusion pour une vieille chaudière. Et le trou de ver temporel est minuscule, ne permettant de faire passer que de l’information ; tout ce qui est plus gros qu’une particule est déchiré par le voyage, mais on va revenir sur pourquoi. Bref, dans les deux sens, il a été possible d’envoyer de l’information, de la recevoir, et ainsi, de constater que le voyage dans le temps est bel et bien une réalité.

Mais voilà, le voyage dans le temps se heurte à un obstacle majeur : le principe d’incertitude. Ce principe de la mécanique quantique traverse lui aussi l’espace-temps et tout ce qui y circule dans un sens ou dans l’autre. Une information envoyée dans le passé devient d’autant plus incertaine et altérée qu’elle a voyagé loin, jusqu’à ce que l’information soit illisible. Et pareil, dans l’autre sens : un message venu du futur deviendra toujours plus incertain.

Regarder dans le futur ou le passé en employant une machine à voyager dans le temps, c’est regarder une possibilité qui nage dans un flot d’incertitude, et qui s’accroit avec le temps qui passe, dans un sens ou dans l’autre. La causalité est respectée telle une frontière inviolable car voyager dans le passé, c’est se perdre dans tous les possibles de la réalité, qui ne cessent de devenir incertains plus on regarde loin. L’information lisible est donc rapidement perdue dans une masse d’informations incohérentes, et mêmes les particules n’y résistent pas, ce qui interdit toute idée de faire voyager même une pomme dans le temps. Ou en tout cas, pas bien loin.

Ceci dit, cela confirme une hypothèse de physique qui a toujours fasciné : le temps n’est pas immuable et la causalité n’est, finalement, qu’une incidence de l’entropie que cause l’incertitude. La réalité est composée d’événements qui se sont produits, des causes et leurs effets, mais pourraient se produire de toute autre manière à la fois dans tous les points du réel, permettant de confirmer la théorie des endoespaces dont nous parlons plus haut. Avec assez d’énergie et de moyens, il serait possible alors de relire passé et futur à l’infini, à travers l’immensité de leurs possibilités et d’en déduire même des probabilité de ce qui a déjà eu lieu et pourrait advenir ; ceci dit, pour le moment, personne n’y est parvenu ou alors il ne s’en est pas vanté. Les seuls qui, hypothétiquement, parviendraient à franchir la barrière du temps seraient les précog Hexens, mais qui n’existent, pour l’opinion publique, que dans les thèses des conspirationnistes.

L’origine de la vie

La première tentative pour donner naissance à la vie en laboratoire date du milieu du 20ème siècle, avec les expériences de Miller-Urey, qui ont lancé la compréhension des bases de la chimie prébiotique. C’est un sujet qui n’a été repris qu’au début du 22ème siècle, presque à zéro car une grande partie des recherches précédentes avait disparue. Et qui a réussi. L’expérience s’appelle d’ailleurs désormais L’expérience de Dahlberg-Ellson et date de 2108, en Suède.

La leçon de cette expérience aboutie, qui a été répétée pas mal de fois, pour étudier les manières dont la vie peut apparaitre, c’est que la vie n’apparait pas si difficilement que cela, du point de vue statistique tout du moins. Il faut recommencer les conditions d’apparition d’une première cellule quelques dizaines de millions de fois, des conditions qui exigent aussi bien de l’eau liquide et le bon mélange de molécules prébiotiques, que les bonnes conditions de température et d’irradiation, ainsi qu’un cycle de saisons, pour qu’une première cellule vivante avec un ADN, souvent très original et unique, apparaisse. Et il faut recommencer encore pas mal de fois pour qu’elle survive et se reproduise.

La première conclusion, c’est qu’il y a assez peu de planètes où la vie pourrait émerger rapidement, comme elle l’a fait sur Terre. La somme des conditions nécessaires étant élevée, le phénomène ayant quand même un taux d’échec élevé avant de réussir, la plupart des planètes ne sont pas très propices à une émergence rapide. La seconde conclusion, c’est qu’une fois que la vie a émergé et commencé à évoluer, il est très difficile de la faire disparaitre. Les expériences dans ce domaine ont toutes été notables : la vie, surtout la plus simple, par son incroyable faculté d’évolution, résiste à tout, et pour stériliser un monde, disons de la taille de la Terre, il faut en calciner la surface jusqu’à des centaines de kilomètres de profondeur.

Ceci dit, aucune forme de vie crée artificiellement ex nihilo n’est jamais (en tout cas officiellement) sorti des éprouvettes des laboratoires. Les expériences concernées sont complexes, rares, très encadrées, et les scientifiques ne sont pas fous, ils ne tiennent pas à savoir ce qui se passerait si la vie sur Terre avait soudain une concurrence.

Le multivers

La notion d’univers multiples est à la base une abstraction mathématique, puis une intuition rendue très plausible par la mécanique quantique pour en expliquer les étranges phénomènes, hypothèse qui fut défendue dès le milieu du 20ème siècle… puis que tout le monde tenta de démontrer par l’expérience, en vain et ce même au 21ème siècle.

Et puis, il y a eu Shackton et Ishiro, les endoespaces et… les Twilight Zones. S’il fallait des confirmations, tout le monde les a obtenus et a pu les constater ; autant dire que personne ne doute plus. La question n’est donc plus de démontrer l’existence du multivers, mais de parvenir à une théorie qui explique l’interaction du multivers à une échelle plus grande que celle des particules et ce afin de comprendre, par exemple, la nature réelle des manifestations de Singularités et leur cortège de phénomènes bizarres nommés les Twilight Zones.

Car une chose est sûre, pour pas mal de cosmologistes et de théoriciens : le multivers est malléable et déformable, il interagit d’un univers à l’autre, une anomalie peut l’affecter, traverser les univers et créer des phénomènes physiques hors-normes, observables à l’échelle macroscopique. Le plus visible d’entre eux, c’est l’Abime ; difficile de nier son existence. Mais à partir de là, il est urgent de comprendre toute cette mécanique et d’élaborer une théorie qui permettent du calcul et donc, de la prévision. Un projet titanesque, qui ne donne pour le moment que des résultats balbutiants.

Car une autre chose est sûre : les anomalies gagnent en ampleur depuis l’événement de l’Impact, ce qui ne rassure pas du tout ces scientifiques qui se pressent pour comprendre la nature du multivers, quoi qu’elle puisse être, avant que les anomalies de ce multivers ne finissent par engloutir la Terre… ou plus encore.

Le Big Bang

Au 23ème siècle, la quête pour les premiers instants de l’Univers continue et elle a pas mal progressé avec la compréhension des constituants primordiaux du cosmos, à commencer par le champ mémétique et les endoespaces. Et l’idée admise est que la Singularité d’origine est un point nul d’endoespace ayant engendré dans les premières micro-secondes le champ mémétique de l’univers, qui produit dont l’information qu’il contient avec les particules qui l’habitent. Bref, quelque chose qui ne passionne que les cosmologistes, car plein de questions sont encore irrésolues – y compris le fameux : et avant, y’avait-il quelque chose ou rien ?

Par contre, cette quête des origines est très importante dans la recherche, car à peu près toutes les grandes machines scientifiques du 22ème et 23ème siècle ont toutes ou tard été employés pour participer à la résolution de cette énigme, voir, pour certaines, construites exprès pour cela, comme le premier Hypercollider bâti à Vostok City en Antarctique. Un second projet, complètement hors-norme, est d’ailleurs discuté, pour construire un autre collisionneur encore plus vaste, cette fois sur la Lune, ce qui affole quelques personnes qui, au vu de l’énergie que pourrait développer une telle machine, se demandent si cette dernière ne pourrait pas tout simplement désintégrer à peu près tout le jour où elle serait mise en marche.  Et, étrangement, l’un des principaux détracteurs du projet n’est autre que Nathaniel Shipstone, qui milite pour que l’on cesse de poursuivre ces expériences de gigantisme aux échelles d’énergie hors-norme.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

%d blogueurs aiment cette page :