L'odyssée de l'intelligence artificielle : l’IA peut-elle être morale?

April 13, 2026 Science

Article paru dans L'Opinion, le 31 juillet 2023

L'odyssée de l'intelligence artificielle : L’IA peut-elle être morale?

Pendant tout l'été, l'Opinion décrypte les dessous de la révolution que nous sommes à la veille de vivre. Nous sommes entrés dans une nouvelle ère. Attachez vos ceintures.

Episode 10 : L’Intelligence artificielle peut-elle comprendre ce qui est bien et ce qui est mal ? Comment évaluer cela ? Pour Jean-François Bonnefon, chercheur à la Toulouse School of Economics et directeur de recherche au CNRS, il n’est aujourd’hui pas facile de répondre à ces questions. Pour autant, un enjeu reste clair, celui de faire en sorte que les IA qui existent aujourd’hui soient des IA morales. 

 

Aucune méthode ne peut nous permettre d’établir qu’une intelligence artificielle comprend le bien et le mal, parce que les méthodes dont nous disposons ne s’appliquent qu’aux humains. Nous ne disposons pas des outils qui nous permettraient d’établir qu’une intelligence artificielle comprend les notions de bien et de mal.  

Lorsque nous voulons évaluer la capacité d’une personne humaine à distinguer le bien et le mal, nous pouvons utiliser trois grandes méthodes. D’un point de vue qualitatif, nous pouvons demander à cette personne d’expliquer, avec ses propres mots, en quoi consiste cette distinction. D’un point de vue quantitatif, nous pouvons lui faire passer des tests et des questionnaires. D’un point de vue empirique, nous pouvons observer son comportement et noter avec quelle fréquence il dévie des normes morales, ou occasionne des conséquences néfastes. Aucune de ces méthodes n’est très informative quand nous passons d’une personne humaine à une intelligence artificielle. 

Une IA comme ChatGPT, basée sur un “grand modèle de langage”, n’aura aucun problème à développer un discours convaincant sur la nature du bien et du mal, mais le propre d’un grand modèle de langage est précisément d’être capable de parler de façon convaincante d’un sujet sans avoir besoin de le comprendre. Tout au plus, si nous poussons le modèle dans ses retranchements et parvenons à lui faire dire quelque chose d’absurde sur le bien et le mal, nous pourrons conclure qu’il ne comprend pas ces notions. Mais aucun discours, aussi convaincant soit-il, ne nous permettra de conclure qu’il les comprend. La même logique s’applique à l’approche par test ou questionnaire. Un grand modèle de langage peut tout à fait répondre à ces tests et questionnaires. Si ses réponses sont déficientes, nous conclurons qu’il ne comprend pas le bien et le mal; mais si ses réponses sont parfaites, nous ne pourrons rien conclure...

Lire las suite sur L'Opinion
Illustration : Photo de Julien Tromeur sur Unsplash