Galilée contre GPT-3 ?

Dans cet article, le physicien Hubert Krivine – auteur de nombreux ouvrages, dont L’IA peut-elle penser ? – analyse la manière dont fonctionne GPT-3 (Generative Pre-trained Transformer 3) et, à partir de réflexions sur les sciences modernes qu’il poursuit depuis plusieurs livres, revient sur les limites de l’intelligence artificielle.

***

Dans une Lettre à Kepler du 19 août 1610, Galilée se moque de ceux qui pensent :

 […] chercher la vérité ni dans le monde, ni dans la nature, mais (je cite leurs propres paroles) dans la confrontation des textes.

Galilée visait les lecteurs qui croyaient trouver dans le Livre Saint la réponse à toutes les questions. Pour Galilée et les savants modernes, seule la théorie et l’expérience permettent d’approcher ce qu’il est convenu d’appeler une vérité scientifique qui n’est évidemment jamais absolue et fixée[1]. Mais il ne suffit pas d’observer le monde en accumulant des données. Il faut aussi savoir que[2] :

La philosophie est écrite dans ce livre gigantesque qui est continuellement ouvert à nos yeux (je parle de l’Univers), mais on  ne peut le comprendre si d’abord on n’apprend pas à comprendre la  langue et à connaître les caractères dans lesquels il est écrit. Il est écrit en langage mathématique.

En d’autres termes, même si on peut questionner l’aspect un peu réducteur du « langage mathématique », il faut raisonner, nous dit Galilée.

Quelles que soient ses spécificités, l’IA moderne (à la différence des systèmes experts) travaille par induction. C’est à dire qu’elle se nourrit de données (les data) pour en singulariser des corrélations et en tirer des prévisions. C’est ainsi que travaillaient les savants jusqu’à la Renaissance. Avec des résultats remarquables en astronomie, agriculture, architecture, mais quelque fois tout simplement faux ; par exemple l’affirmation que les corps doivent tomber d’autant plus vite qu’ils sont lourds, que la Terre est fixe ou que la génération spontanée existe.

Est venue ensuite l’idée que, là où c’était possible, la théorie – souvent appuyée par les mathématiques – pouvait être une arme bien plus féconde. Mais, depuis le début du XXème siècle, on a compris que, dans certains cas, même la connaissance de lois ne permet pas de prévoir (c’est l’effet papillon plus savamment appelé chaos déterministe)[3] ou alors qu’elles sont si complexes que les approximations nécessaires pour les appliquer peuvent les rendre fautives. L’idée est alors…

La suite est à lire sur: www.contretemps.eu
Auteur: redaction