L’envers des mots : « Neuromorphique »

À mesure que des questions de société émergent et que de nouveaux défis s’imposent aux sciences et technologies, notre vocabulaire s’étoffe, s’adapte. Des termes qu’on croyait déjà bien connaître s’enrichissent de significations inédites, des mots récemment créés entrent dans le dictionnaire. D’où viennent-ils ? En quoi nous permettent-ils de bien saisir les nuances d’un monde qui se transforme ? De « validisme » à « silencier », de « bifurquer » à « dégenrer », les chercheurs de The Conversation s’arrêtent deux fois par mois sur l’un de ces néologismes pour nous aider à mieux les comprendre, et donc mieux participer au débat public.

De façon littérale, « neuromorphique » signifie « qui imite le cerveau ». Ce qualificatif se retrouve dans des expressions comme « ingénierie neuromorphique », « informatique neuromorphique », « processeur neuromorphique », « robotique neuromorphique », dans le domaine des sciences et technologies de l’information et de la communication.

L’objectif du neuromorphisme est de surpasser les limitations auxquelles se heurtent nos ordinateurs, tablettes et smartphones actuels en matière d’intelligence artificielle et d’interactions homme-machine. Rappelons ici que les processeurs, qui sont les « cœurs » de nos machines, fonctionnent tous selon les mêmes principes : un codage binaire, des informations, une architecture unique séparant le calcul et la mémoire, et l’implémentation physique de cette architecture avec des dispositifs à semiconducteurs. Une des caractéristiques de ces processeurs est de ne traiter qu’une information à la fois, ce qui implique de le faire très rapidement en consommant beaucoup d’énergie pour être performant.



Read more:
Le neuromorphisme, ou comment créer des ordinateurs plus puissants en s’inspirant du cerveau

Avec l’émergence de nouveaux domaines applicatifs, comme les objets connectés ou l’Intelligence artificielle, la question d’un paradigme de traitement de l’information alliant une plus grande efficacité énergétique à des performances supérieures se pose de façon marquée. Dans ce domaine, le cerveau peut-être un bon modèle.

En effet, les recherches en neurosciences nous ont appris comment fonctionne le cortex cérébral, comment ses composants élémentaires que sont les neurones et les synapses codent, communiquent et mémorisent l’information et enfin, comment leur organisation en réseau permet d’effectuer des tâches cognitives avec une grande efficacité énergétique. Une caractéristique essentielle du cortex est de traiter un grand nombre d’informations simultanément grâce à une interconnexion gigantesque (un neurone peut être connecté à 10 000 autres neurones !). De ce fait, le cortex n’a pas besoin de traiter rapidement les informations pour être performant et il consomme peu d’énergie.

Grâce aux formidables avancées des neurosciences et aux besoins de performance en traitement de l’information, l’idée est venue de concevoir un artefact qui fonctionnerait comme le cerveau, avec des neurones et des synapses artificiels organisés en réseau. Notons que cette idée, qui suscite aujourd’hui un engouement certain, est en fait assez ancienne : elle fut proposée pour la première fois par Carver Mead à la fin des années 1980 !



Read more:
Dans le cerveau caché de l’intelligence artificielle

Propulsé par l’idée de « mettre de l’intelligence » dans toutes nos machines, le sujet est devenu majeur de nos jours. Deux voies radicalement différentes sont suivies par les acteurs du domaine :

  • La voie logicielle, celle de l’informatique neuromorphique, utilise un processeur classique pour simuler des réseaux de neurones et de synapses qui sont définis par des modèles mathématiques. Grâce à sa souplesse, cette approche de simulation numérique a connu un formidable essor avec des techniques comme l’apprentissage profond qui permet à une machine d’apprendre toute seule et les nombreux travaux autour de l’intelligence artificielle. Utilisant des machines standards, cette approche souffre malheureusement d’une mauvaise efficacité énergétique et elle demande des moyens de calcul gigantesques pour être performante.

  • La voie matérielle est plus ambitieuse, mais aussi beaucoup plus…

La suite est à lire sur: theconversation.com
Auteur: Alain Cappy, Professeur émérite en électronique, Université de Lille