Fdesouche
ChatGPT : l’IA aurait développé un « inconscient progressiste » qui ressemblerait à celui d'un « macroniste de 2017 », selon une étude

Une enquête déconcertante. D’après une note du laboratoire d’idées Terra Nova, commentée par Le Parisien dans un article paru ce dimanche 26 novembre, ChatGPT serait biaisé. Ainsi, « quand on lui pose des questions sur des sujets politiques clivants, le chat-bot a une opinion, même s’il n’est pas autorisé à l’exprimer clairement », indique Fipaddict, un enseignant en économie et en institutions politiques à l’origine de l’enquête.

Soucieux de découvrir « l’inconscient de ChatGPT », ce chercheur a posé au robot conversationnel une série de questions, à 1 000 reprises. Systématiquement, les réponses de ChatGPT penchent à gauche. Même si à l’origine, l’intelligence artificielle d’Open IA « n’est pas codée politiquement », sa vision du monde dépend de la façon dont l’entreprise l’a entraînée.

« Le risque, c’est de manipuler les opinions »

Résultat, ChatGPT « est libéral sur tout ce qui concerne les mœurs, et assez modéré sur les institutions et l’économie ». En définitive, le robot pense comme un « macroniste de 2017 ». Cette conclusion laisse songeur quant à la manipulation des populations. « Le risque, c’est de manipuler les opinions de manière explicite ou insidieuse », craint Fipaddict, qui appelle à une « législation un peu plus stricte ».

www.lejdd.fr

Fdesouche sur les réseaux sociaux