
Petite mathématique du cerveau une théorie de l'information mentale
Du neurone, composant fondamental du cerveau, on sait à peu près tout. De l'information mentale qu'il traite, on ne sait presque rien. Sous quelle forme « matérielle » et selon quelle organisation interne notre cerveau range-t-il ses visages connus, ses poèmes préférés et ses numéros de téléphone ? De quelle manière les restitue-t-il à la demande ? Ces questions ayant trait à l'information mentale relèvent moins de la biologie et de la neuroanatomie que de la théorie de l'information, formulée à l'origine par des spécialistes des télécommunications et du codage.
Cet ouvrage très abordable apporte une première réponse concrète, mathématiquement cohérente et biologiquement plausible, sur la manière dont le réseau neural fixe et remémore ses éléments de connaissance. S'y mêlent, en une théorie originale, neurones et graphes, codes correcteurs d'erreurs et colonnes corticales, « cliques » neurales et autres « tournois », en quête des algorithmes de notre cerveau. Les perspectives de développement offertes par cette théorie et par le modèle de mémoire cérébrale entièrement numérique auquel elle conduit sont nombreuses et prometteuses, en neurosciences comme dans le champ de l'intelligence artificielle.
Nous publions uniquement les avis qui respectent les conditions requises. Consultez nos conditions pour les avis.