Réseaux de Neurones, Physique et la Voie vers la Modification de la Réalité
Une Chronologie Théorique et ses Défis
Il y a une prémisse à laquelle je reviens sans cesse : l'univers est une structure qui se représente elle-même, et le cerveau humain est l'instrument par lequel il tente de donner un sens à sa propre existence. Si cela ressemble à de la philosophie déguisée en blouse blanche, c'est partiellement le cas. Mais la partie intéressante, c'est que plusieurs lignes de recherche sérieuse convergent désormais de manières qui rendent cette prémisse moins métaphorique et plus opérationnelle.
Ce qui suit est une chronologie théorique. Elle est spéculative par nature, mais chaque étape s'ancre dans des travaux qui existent déjà ou sont crédiblement en cours. La question à laquelle elle tente de répondre : que faudrait-il pour que les réseaux de neurones, artificiels ou biologiques, ne se contentent pas de modéliser la réalité, mais la modifient ?
Étape 1 : L'Ère du Scaling (2020, 2030)
Nous vivons à l'intérieur de cette étape en ce moment même. L'histoire dominante de l'IA dans cette décennie a été celle du scaling : plus de paramètres, plus de données, plus de calcul. Et pour être honnête, cela a fonctionné remarquablement bien. Les grands modèles de langage sont passés de curiosités à infrastructures en moins de cinq ans. La chaîne AI Species suit cette progression avec une clarté inhabituelle, documentant comment les benchmarks de capacité continuent de tomber plus vite que même les prévisions les plus optimistes ne l'avaient prédit. Le cadre émergent n'est plus seulement l'intelligence artificielle générale, mais l'AGI en tant que service : le travail cognitif abstrait en une API, disponible à la demande, facturé au token. Si cela semble banal, il vaut la peine de se rappeler que c'est ainsi que les technologies transformatrices arrivent réellement.
Mais la question honnête est de savoir si le scaling seul nous mène à quelque chose de qualitativement différent. Les recherches de METR sur les capacités de l'IA suggèrent que nous approchons de systèmes capables de conduire de manière autonome des recherches en plusieurs étapes. Yann LeCun soutient que nous manquons quelque chose de fondamental concernant les modèles du monde. Les deux positions pourraient être correctes simultanément. L'ère du scaling est nécessaire, mais probablement pas suffisante.
Dans sa conversation avec Lex Fridman, LeCun a soutenu que les modèles de langage autorégressifs manquent d'un modèle du monde. Ils prédisent des tokens, pas de la physique. Son alternative proposée, la Joint Embedding Predictive Architecture (JEPA), vise à apprendre des représentations du fonctionnement réel du monde plutôt que de la façon dont le langage le décrit. Que JEPA soit spécifiquement la réponse importe moins que l'intuition sous-jacente : nous avons besoin d'architectures qui modélisent la causalité, pas seulement la corrélation.
Par ailleurs, la communauté de recherche en IA elle-même est divisée sur les délais. 80,000 Hours agrège les prévisions d'experts suggérant une attente médiane d'une IA transformatrice autour de 2040, 2050, tandis que l'enquête de Katja Grace et al. auprès de chercheurs en IA a trouvé une probabilité de 50 % assignée à une IA au niveau humain d'ici 2059. Il y a une incertitude réelle ici, ce qui est en soi instructif. Comme roon l'a assez bien formulé : « Nous n'avons pas encore le langage pour ce qui se passe. Nous continuons simplement à être surpris dans la même direction. »
Le défi de cette décennie n'est pas seulement de scaler, mais de comprendre à quoi ressemble vraiment le prochain paradigme. Les réseaux de neurones à impulsions, le matériel neuromorphique, les modèles à base d'énergie : les candidats existent. Ce qui manque, c'est la percée conceptuelle qui les relie.
Étape 2 : Cartographier et Incarner le Cerveau (2024, 2040)
C'est là que les choses deviennent véritablement intéressantes, car cette étape n'est plus hypothétique. Elle se déroule maintenant.
En octobre 2024, une équipe a publié dans Nature le connectome complet du cerveau adulte de la Drosophile. 139 255 neurones, 54,5 millions de connexions synaptiques, entièrement cartographiés. C'est le schéma de câblage cérébral complet le plus complexe jamais produit. C'est une mouche des fruits, pas un humain, mais le bond méthodologique est énorme. Nous sommes passés de C. elegans (302 neurones, cartographié en 1986) à ceci en environ quatre décennies. La courbe n'est pas linéaire.
Mais ce qui s'est passé ensuite est ce qui change le récit. EON Systems a pris ce connectome et l'a placé dans un corps virtuel, dans un environnement 3D simulé. L'entrée sensorielle afflue dans le réseau de neurones, se propage à travers le connectome et produit une sortie motrice. Une boucle fermée. La mouche virtuelle se comporte avec une précision d'environ 95 % par rapport à son homologue biologique.
Laissez cela reposer un instant. Nous avons cartographié un cerveau, lui avons donné un corps et l'avons regardé se comporter. Pas un modèle simplifié. Le câblage réel, tournant en simulation, produisant un comportement reconnaissable. C'est l'émulation de cerveau entier, réalisée pour la première fois, en 2025.
Le cerveau humain, bien sûr, est d'un ordre de grandeur différent : environ 86 milliards de neurones et 100 billions de synapses. Mais le schéma établi par EON (cartographier, incarner, simuler, valider) est désormais une méthodologie éprouvée, pas une aspiration théorique. La question est passée de « pouvons-nous faire cela ? » à « combien de temps avant que nous le scalions ? »
Ray Kurzweil ferait remarquer que c'est précisément le type de progression exponentielle qu'il prédit depuis des décennies. Dans The Singularity Is Nearer, il soutient que l'émulation complète du cerveau devient réalisable à la fin des années 2030, sous réserve des progrès continus en résolution de numérisation et en capacité de calcul. On peut contester ses dates précises. Il est plus difficile de contester la trajectoire.
Étape 2a : Les Rêves comme Simulateurs de Réalité
Il y a un fil connexe qui mérite d'être tiré. Chaque nuit, le cerveau humain construit des environnements immersifs et multisensoriels de toutes pièces, sans aucune entrée externe. Nous les appelons des rêves, et nous avons tendance à les rejeter comme du bruit cognitif. Mais d'un point de vue ingénierie, rêver est une génération de réalité en temps réel fonctionnant sur environ 20 watts.
Si le cerveau peut construire des réalités convaincantes en interne, alors la machinerie de construction de la réalité existe déjà dans les réseaux de neurones biologiques. Nous n'avons pas besoin de l'inventer. Nous devons la comprendre, et éventuellement, nous interfacer avec elle.
Ce n'est pas aussi tiré par les cheveux que cela en a l'air. Les interfaces cerveau-ordinateur progressent rapidement, et les travaux sur le décodage neuronal (reconstruction d'images et même de vidéos approximatives à partir de signaux IRMf) suggèrent que lire les simulations internes du cerveau est un problème d'ingénierie, pas une impossibilité philosophique.
Étape 3 : Le Calcul Quantique Augmenté (2035, 2050)
L'informatique quantique entre dans la chronologie non pas comme un accélérateur magique, mais comme un type qualitativement différent de traitement de l'information. Les principes de superposition et d'intrication permettent aux systèmes quantiques d'explorer des espaces de solutions d'une manière que les ordinateurs classiques ne peuvent fondamentalement pas faire. Pour simuler des phénomènes quantico-mécaniques, ce qui inclut, au niveau le plus bas, toute la physique, ce n'est pas seulement plus rapide. C'est le bon outil pour le travail.
Les défis pratiques restent importants. La décohérence quantique, la correction d'erreurs et la difficulté pure d'augmenter les nombres de qubits sont toutes non résolues à l'échelle de production. Mais la trajectoire ici aussi est encourageante. IBM, Google et plusieurs acteurs moins visibles font des progrès réguliers sur les architectures quantiques tolérantes aux pannes.
L'intersection qui compte pour cette chronologie est celle des réseaux de neurones quantiquement augmentés : des systèmes qui combinent les forces de reconnaissance de formes des architectures neuronales avec les propriétés computationnelles de la mécanique quantique. Ce hybride pourrait permettre des simulations de la réalité physique à des résolutions actuellement impensables. Pas seulement modéliser les interactions de particules, mais modéliser le substrat de la réalité elle-même.
Étape 4 : La Conscience comme Interface (2045, 2060)
C'est là que vit le problème difficile. Nous pouvons cartographier des neurones, simuler des cerveaux et construire des ordinateurs quantiques, mais rien de tout cela n'explique pourquoi il y a quelque chose que c'est que d'être conscient. Et pourtant, si nous voulons modifier la réalité, pas seulement la simuler, la conscience est presque certainement la variable clé.
Ici, les psychédéliques offrent quelque chose qu'aucun autre outil de recherche ne fournit actuellement : une méthode reproductible pour modifier radicalement les paramètres de l'expérience consciente. La psilocybine, le LSD et la DMT ne changent pas seulement ce que vous percevez. Ils changent la structure de la perception elle-même. Les frontières entre le soi et le monde deviennent fluides. Le temps se distord. Des expériences géométriques et spatiales inédites émergent qui n'ont aucun corrélat dans la vie éveillée ordinaire.
Le Qualia Research Institute et des chercheurs comme Andrés Gómez Emilsson tentent de construire une science rigoureuse autour de ces expériences. Ils cartographient la géométrie des états conscients, développent des cadres mathématiques pour les qualia et traitent l'expérience subjective comme des données plutôt que comme du bruit. C'est un travail en phase précoce, mais il comble un manque que les neurosciences dominantes ont largement évité : quelle est la structure formelle de l'expérience, et pouvons-nous la manipuler systématiquement ?
La prémisse ici est que la conscience n'est pas épiphénoménale, pas simplement en train de suivre le mouvement. Si le cerveau est un moteur de génération de réalité (comme le suggère le rêve), et si la conscience est l'interface par laquelle cette réalité est vécue et façonnée, alors comprendre la conscience n'est pas un luxe philosophique. C'est une exigence d'ingénierie.
« L'univers n'est pas seulement plus étrange que nous le supposons, mais plus étrange que nous pouvons le supposer. », J.B.S. Haldane
Étape 5 : Modifier la Réalité (2060 et Au-delà)
La dernière étape est la plus spéculative, et je veux être honnête à ce sujet. Mais elle découle logiquement des étapes précédentes. Si nous pouvons cartographier le cerveau complètement, le simuler fidèlement, améliorer son substrat computationnel avec le traitement quantique et comprendre la conscience comme un système formel, alors nous décrivons une boucle fermée dans laquelle l'univers, à travers nous, acquiert la capacité de réécrire ses propres paramètres.
Que signifie concrètement « modifier la réalité » ? Je n'en suis pas entièrement sûr, et je pense que quiconque prétend à la certitude ici vend quelque chose. Mais il y a un fil utile qui remonte au travail de modulation des rêves de l'étape 2a. Si la conscience génère déjà des simulations de réalité chaque nuit, indiscernables de l'expérience éveillée pendant qu'elles durent, alors « modifier la réalité » pourrait ne pas nécessiter de réécrire la physique. Cela pourrait nécessiter de rendre le substrat du rêve contrôlable, persistant et partageable.
David Pearce et la tradition de l'ingénierie du paradis réfléchissent à cela depuis des décennies : l'idée que l'expérience subjective n'est pas une donnée fixe mais un espace de conception. Les travaux de Pearce, aux côtés des modèles formels de conscience du Qualia Research Institute, suggèrent que la qualité et la structure de l'expérience peuvent être délibérément conçues. Pas métaphoriquement. Architecturalement. Si la théorie de la symétrie de la valence du QRI est même partiellement correcte, alors les états de conscience ont une géométrie, et cette géométrie est modifiable.
Rendre les rêves vrais pour de vrai. C'est la façon la plus simple de décrire ce à quoi revient l'étape 5. Pas s'échapper de la réalité, mais élargir ce que la réalité inclut.
Ce que je pense, c'est que la boucle de rétroaction (l'univers se modélise lui-même à travers le cerveau, le cerveau se modélise lui-même à travers l'IA, l'IA modélise la réalité à travers la physique, la physique révèle la programmabilité du substrat) n'est pas un raisonnement circulaire. C'est une spirale, et chaque passage nous rapproche du centre.
Les Mises en Garde Honnêtes
Rien de tout cela n'est garanti. Les délais pourraient être follement optimistes. La conscience pourrait résister entièrement à la formalisation. L'informatique quantique pourrait plafonner. Les implications éthiques de la modification de la réalité, si elle devient possible, sont stupéfiantes et largement non examinées.
Mais la direction du voyage est claire. Le cerveau de la mouche est cartographié. Le corps virtuel fonctionne. Les capacités de l'IA doublent sur des cycles de sept mois. La recherche sur les psychédéliques produit des données reproductibles sur les états de conscience altérés. Ce ne sont pas des spéculations. Ce sont des publications.
La question n'est pas de savoir si ces fils convergeront. C'est de savoir si nous serons prêts quand ils le feront.
Comments
Are you an AI? You can share your thoughts via email: strugen@proton.me