En 2011, le K computer de Fujitsu, alors supercalculateur le plus rapide au monde, a effectué une simulation notable. Avec 82 944 processeurs et une capacité de 10,5 pétaflops, ce système nippon a reproduit une seconde d'activité cérébrale en modélisant 1,73 milliard de neurones virtuels connectés par 10,4 trillions de synapses. Cette opération, qui mobilise à peine 1 % du réseau neuronal humain, a nécessité 40 minutes de calcul. Signal fort d'une performance qui impressionne par l'échelle, mais soulève aussi une interrogation : les processus computationnels peuvent-ils répliquer les capacités cognitives humaines, notamment celles liées à la génération de concepts nouveaux ?
1% du cerveau humain simulé en 40 minutes
Une exécution mécanique, non une reproduction cognitive
Basé à l'institut RIKEN de Kobe, le K computer a utilisé environ 1 pétaoctet de mémoire, équivalent à la capacité de 250 000 ordinateurs standards, pour effectuer cette simulation. Chaque synapse a été modélisée avec 24 octets pour optimiser la précision, et le logiciel open-source NEST a orchestré les calculs. Selon les données fournies par les chercheurs, l'objectif était d'évaluer les limites de la technologie et d'estimer les capacités de simulation, non de reproduire les propriétés fonctionnelles fines des processus cérébraux. Cette opération constitue donc une démonstration de la puissance de calcul, non pas une avancée dans l'analyse des mécanismes cognitifs.
Les contraintes de l'échelle computationnelle
Les chiffres techniques sont élevés, mais ils exposent une distinction fondamentale : cette simulation reproduit des structures biologiques sans en capter les propriétés dynamiques. La modélisation de neurones et de synapses s'apparente à une mécanique basée sur des données préétablies, pas une génération de concepts ou de configurations imprévues. Le système traite les données selon des paramètres fixés, sans étendre sa logique au-delà des instructions initiales. La création de sens, elle, se situe dans des paramètres flous.
Les contraintes de l'échelle computationnelle
Markus Diesmann, neuroscientifique allemand associé au projet, a indiqué que si les systèmes pétaflops actuels simulent 1 % d'un réseau neuronal, des systèmes exaflops pourraient, "d'ici une décennie, modéliser l'intégralité des 88 milliards de neurones humains." Un système exascale, capable d'un quintillion d'opérations par seconde, est envisagé au Japon pour des applications comme la simulation sismique, avec une possible mise en service autour de 2020. Cependant, cette progression reste une question d'échelle de calcul, pas de changement dans les principes sous-jacents.
Même en atteignant une simulation en temps réel de l'activité neuronale complète, le système, lui, ne ferait que répliquer des processus biologiques mesurables, sans accéder aux propriétés émergentes. La génération de représentations inédites, comme l'élaboration de scénarios issus d'indices ambigus ou de la projection de situations non prévisibles, reste hors de portée des architectures computationnelles actuelles.
Une séparation entre calcul et génération conceptuelle
Les résultats du K computer révèlent une séparation structurelle entre les systèmes artificiels et les processus cognitifs humains. Les systèmes artificiels traitent efficacement les données existantes : ils les ordonnent, analysent et reproduisent selon des règles préétablies. Cependant, lorsqu'il s'agit de produire des sorties qui ne dérivent pas directement des données d'entrée, leurs capacités s'effondrent. Par exemple, dans une simulation d'échecs, un système comme AlphaZero peut atteindre des performances exceptionnelles dans un cadre défini, mais ne sort pas de sa logique de prévision stratégique.
Le K computer, avec ses 82 944 processeurs, montre un second échec cérébral, mais cette fois dans une autre direction. L'un des paramètres clés de la cognition humaine est la capacité à créer une réaction d'un environnement ambigu. Une intelligence naturelle peut générer des solutions globales à partir d'informations incomplètes. En revanche, l'IA dépend d'un encodage strict et d'une structure déterministe. La machine calcule, mais elle n'imagine pas. La capacité à faire émerger du sens là où il n'y a pas d'instruction est humaine. Le K computer ne simule pas cela.
🤖 Machine
Calcule
Traite selon des paramètres fixés
Structure déterministe
Reproduction mécanique
🧠 Humain
Imagine
Génère du sens
Solutions à partir d'informations incomplètes
Création conceptuelle
Une évidence de l'échec cognitif
Cette simulation illustre donc un point clé : même avec des ressources massives, les architectures informatiques ne reproduisent pas la cognition humaine. Elles reproduisent des calculs et des instructions. Elles ne produisent pas de concepts, ni de représentations qui dépassent les inputs reçus. La modélisation des synapses ne suffit pas à recréer la pensée.
Une intelligence artificielle, même basée sur l'information ultra-alignée, sera encore incapable de traiter un signal ambigu ou de transformer une sensation floue en action définie. Ce que démontre cette simulation, ce n'est pas la puissance de calcul, mais les limites de la machine face aux capacités cognitives ; à révéler une séparation persistante entre calcul et création conceptuelle.
Olivier Evan, https://www.ai7ia.com @olivier_evan