
Chaque liaison entre deux neurones stockerait l’équivalent de 4,7 bits, beaucoup plus que ce que l’on pensait jusqu’ici. À l’échelle d’un cerveau humain, le total correspondrait à quelque chose comme un pétaoctet, soit mille téraoctets. « Au moins », ajoutent des chercheurs qui ont fait une incroyable découverte en analysant un petit volume de cerveau de rat par une technique de microscopie électronique en 3D et à l’aide de modèles. Conclusion : les synapses sont plus efficaces que prévu.
Quelle quantité d’information peut stocker un cerveau ? La question est ardue car cet assemblage de quelque cent milliards de neurones chez un être humain est loin de fonctionner comme un ordinateur. Cependant, une équipe de l’Institut Salk, à San Diego, en Californie, a apporté un élément de réponse en analysant des cerveaux de rats dans la région de l’hippocampe – une zone impliquée dans la mémoire (...)
Petit plongeon dans le cerveau en action. Chaque neurone est connecté à des milliers d’autres par des synapses (des liaisons à sens unique) de l’axone de l’un (une sorte de câble), qui envoie l’information, à une dendrite de l’autre, qui la reçoit sur l’un de ses nombreux diverticules (les épines dendritiques). Ce sont elles qui portent les synapses, sortes de sacs emplis de molécules, les neuromédiateurs, intermédiaires chimiques qui transmettent le signal nerveux, de nature électrique. Deux neurones peuvent être en contact ou non (voilà une information binaire) mais, mieux, lorsqu’ils le sont, ils peuvent l’être plus ou moins. Une synapse est en effet plus ou moins puissante. C’est ainsi qu’est codée l’information dans notre cerveau. À force d’apprentissage, telle liaison se renforce alors que telle autre s’affaiblit. (...)
Ce n’est pas un détail ! Au sein de ce spectre de 60 entre la plus faible et la plus forte, les synapses peuvent adopter 26 niveaux différents, et non pas deux ou trois, ce qui constitue un stockage d’information bien plus efficace. Convertis en binaire, c’est-à-dire en base 2, permettant la comparaison avec l’informatique, ces 26 niveaux correspondent à environ 4,7 bits, puisque 2 puissance 4,7 valent à peu près 26. Jusqu’ici, on estimait à 1 ou 2 bits la quantité d’information contenue dans une synapse.
Voilà qui fait grimper la quantité totale pour un cerveau humain, conduisant au chiffre, donné au doigt mouillé, de 1 pétaoctet, soit 1015 octets, un minimum selon les chercheurs. Surtout, il donne une image plus complexe de la liaison entre deux neurones. Les chercheurs ont aussi pu, à l’aide de leurs modèles et des connaissances sur les neuromédiateurs, minuter les échanges entre les deux cellules. Dans l’hippocampe, une région du cerveau où les liaisons sont instables, expliquent les chercheurs dans le communiqué de l’Institut Stack, « pour les synapses les plus faibles, environ 1.500 évènements provoquent une modification dans le volume de la vésicule en une vingtaine de minutes. Pour les plus fortes, quelques centaines de signaux conduisent un changement, en une à deux minutes ». Et de conclure : « Toutes les deux à 20 minutes, vos synapses augmentent ou réduisent leur taille. Elles s’adaptent en fonction du signal qu’elles reçoivent ». (...)