Fdesouche

Dans un récent article, François Chollet (ingénieur chez Google et chercheur en Intelligence Artificielle, spécialiste de “l’apprentissage profond” et du code Python) détaille ses principales craintes concernant l’intelligence artificielle. En voici un résumé.

IA ne signifie pas robot, le plus souvent il s’agit simplement d’un programme informatique sans bras ni jambes. Les IA sont très différentes de l’intelligence humaine et n’ont pas vocation à la copier, de la même manière que les avions diffèrent des volatiles.

Pendant les 20 dernières années nos vies publiques et privées se sont déplacées sur internet. Nous passons une fraction toujours plus importante de nos journées sur les réseaux sociaux (youtube, facebook, twitter). La principale tâche de ces réseaux sociaux consiste à fidéliser l’utilisateur en affichant le contenu le plus à même de capter son attention, mais ce n’est que la face émergée de l’iceberg.

L’IA au service de la segmentation de marché

Les entreprises qui disposent de la plus grande quantité de données sur leurs utilisateurs sont celles qui investissent le plus dans le développement d’intelligences artificielles (facebook, google, baidu, tencent) car l’efficacité des techniques d’apprentissage les plus abouties nécessitent des quantités de données considérables.

Des IA sont entraînées en permanence pour être capable de cerner l’utilisateur: âge, sexe, opinions politiques, situation familiale, religion, etc.

Chaque action est minutieusement analysée: publications lues, ignorées, aimées, partagées ; participation aux événements, groupes d’appartenance. Chaque publication est passée au crible: thème abordé, tonalité, opinion défendue.

Enfin, là où l’IA a fait le plus de progrès ces dernières années est l’analyse d’images (la vision par ordinateur). À partir d’une simple photo il est possible de savoir à quel type d’événement vous étiez, où, quand et avec qui.

Nos opinions et notre comportement peuvent être corrélés avec ceux de milliers de personnes similaires. Il est alors possible de dresser des profils psychologiques d’utilisateurs et de cartographier les groupes d’influence. Ces informations ne sont dénichées qu’à des fins mercantiles, à priori pas d’inquiétude.

L’IA pour manipuler les masses

Maintenant considérons le comportement humain comme un problème d’optimisation ; que les réseaux sociaux puissent régler de manière itérative leurs vecteurs de contrôle pour atteindre un comportement spécifique. Concrètement de modifier les fils d’actualités pour influencer l’opinion d’un groupe d’utilisateurs cible.

On peut établir une boucle d’optimisation pour le comportement humain, dans lequel on observe l’état psychologique actuel de l’utilisateur et on continue d’affiner les informations avec lesquelles on l’abreuve jusqu’à atteindre un état psychologique cible de la façon la plus efficace possible. Un grand sous-ensemble du domaine de l’IA (en particulier l’apprentissage par renforcement) consiste à développer des algorithmes qui résolvent ce type de problème d’optimisation. Voici quatre techniques d’optimisation sociale :

Le renforcement social négatif : si vous publiez un post qui exprime un point de vue que l’algorithme de contrôle ne veut pas que vous teniez, il peut choisir de ne le montrer qu’à des personnes ayant un point de vue opposé au vôtre et qui auront une critique sévère afin de vous isoler.

Le renforcement social positif: si vous faites un post qui exprime un point de vue que l’algorithme de contrôle veut propager, il peut choisir de montrer votre post à des gens (ou des robots) qui vont l’aimer afin de renforcer votre ego.

Le biais d’échantillonnage: l’algorithme favorise parmi les publications de vos amis celles qui défendent l’opinion qu’il veut que vous ayez.
La personnalisation des arguments : l’algorithmes peut observer que l’exposition de personnes dont le profil psychologique est proche du vôtre à certains contenus provoque souvent un changement de point de vue. A terme, l’algorithme peut générer ce genre de contenu spécialement pour vous convaincre.

Les réseaux sociaux travaillent depuis quelques années sur ces problématiques, avec des résultats significatifs. Et même s’ils tentent seulement de maximiser les «engagements» et d’influencer nos décisions d’achat plutôt que de manipuler notre vision du monde, les outils qu’ils ont développés sont déjà détournés par des acteurs étatiques à des fins politiques.

Construire l’anti-Facebook

Tout algorithme de manipulation de fil d’actualité devrait : transmettre les objectifs pour lesquels il est actuellement entrain de s’optimiser et comment ces optimisations affectent les fils d’actualité. Mettre à disposition de l’utilisateur des outils intuitifs pour régler soi-même ces objectifs (maximiser la pluralité d’opinion par exemple)

Merci à Henri pour la traduction et la synthèse de l’article publié en anglais

Fdesouche sur les réseaux sociaux