Le 30 novembre 2022, la société Open AI lançait ChatGPT déclenchant un foisonnement de débats et de questionnements. Le rapport à la « réalité » qu’entretient notre société explique en partie l’émergence et le succès d’intelligence artificielle comme ChatGPT.
À la fin des années 70, l’économiste Harry Braverman soulignait déjà que l’informatique contribuait à accentuer la distance entre la main et l’esprit signant la disparition progressive de gestes et de savoirs traditionnels comme de certains métiers manuels. L’informatique, nous le comprenions déjà, allait transformer notre rapport à la réalité, telle une membrane ou une interface qui s’interpose entre nous et le monde pour nous dire ce qui compte et ce qui vaut.
Ce que nous ne savions pas à l’époque, c’est que ces membranes ou interfaces, autrefois maîtrisables et intelligibles dans des programmes qu’on parvenait encore à expliquer et à discuter, allaient devenir de plus en plus intelligentes et obscures. Avec les systèmes d’IA, comme celui qui supporte ChatGPT, la membrane perd en contrôle.
Une délégation de plus ?
La sociologue Madeleine Akrich propose de considérer la technologie comme un acteur à qui on décide de déléguer des tâches. Ce terme de délégation est intéressant car que déléguons-nous à ChatGPT ? On lui confie la tâche de répondre à nos questions en fouillant des milliards de données pour trouver la « bonne information ». En ce sens, ChatGPT ne fait qu’un pas de plus dans les délégations que nous avons déjà confiées aux machines.
Mais peut-être est-ce un pas de trop car en utilisant la métaphore du délégué pour penser ChatGPT, ce que nous acceptons, c’est de confier la recherche d’information – et partant, notre rapport au monde – à un délégué dont on ne sait ni ce qu’il interroge, ni comment il fonctionne. C’est comme si on acceptait de confier son sort à un parfait…
La suite est à lire sur: theconversation.com
Auteur: Claire Lobet-Maris, Professeure senior sociologie du digital et créativité, Université de Namur