Entre éthique et lois, qui peut gouverner les systèmes d’intelligence artificielle ?

Nous avons tous commencé à réaliser que le développement si rapide de l’IA allait vraiment modifier le monde dans lequel nous vivons. L’IA n’est plus seulement une branche de la science informatique, elle s’est échappée des labos de recherche avec le développement des « systèmes d’IA », des « logiciels qui, pour des objectifs définis par l’homme, génèrent des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent » (définition de l’Union européenne).

Les enjeux de la gouvernance de ces systèmes d’IA – avec toutes les nuances de l’éthique, du contrôle, de la régulation et de la réglementation – sont devenus cruciaux, car leur développement est aujourd’hui aux mains de quelques empires numériques comme les Gafa-Natu-Batx… qui sont devenus les maîtres de véritables choix de société sur l’automatisation et sur la « rationalisation » du monde.

Le tissu complexe croisant l’IA, l’éthique et le droit se construit alors dans des rapports de force – et de connivence – entre les états et les géants de la tech. Mais l’engagement de citoyens devient nécessaire, pour faire valoir d’autres impératifs qu’un solutionnisme technologique où « tout ce qui pourra être connecté sera connecté et rationalisé ».

Une éthique de l’IA ? Les grands principes dans l’impasse

Certes, les trois grands principes éthiques permettent de comprendre comment une véritable bioéthique a pu se construire depuis Hippocrate : la vertu personnelle de « prudence critique », ou la rationalité de règles qui doivent pouvoir être universelles, ou l’évaluation des conséquences de nos actes vis-à-vis du bonheur général.

[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Pour les systèmes d’IA, ces grands principes ont aussi été la base de centaines de comités d’éthique : serment Holberton-Turing, déclaration de Montréal, déclaration de Toronto, Programme de l’Unesco… et même Facebook ! Mais les chartes d’éthique de l’IA n’ont jamais encore débouché sur un mécanisme de sanction, ou même la moindre réprobation.

D’une part, la course aux innovations numériques est indispensable au capitalisme pour surmonter les contradictions dans l’accumulation de profit et elle est indispensable aux états pour développer la gouvernementalité algorithmique et un contrôle social inespéré.

Mais d’autre part, les systèmes d’IA sont toujours à la fois un remède et un poison (un pharmakon au sens de Bernard Stiegler) et ils créent donc continuellement des situations éthiques différentes qui ne relèvent pas de principes mais exigent une « pensée complexe » ; une dialogique au sens de Edgar Morin, comme le montre l’analyse des conflits éthiques autour de…

La suite est à lire sur: theconversation.com
Auteur: Bernard Fallery, Professeur émérite en systèmes d’information, Université de Montpellier