Plein ecran

Stephen Hawking a l’intelligence artificielle à l’oeil

Nov
2014

Stephen Hawking, scientifique mondialement réputé pour ses travaux en cosmologie et physique des trous noirs, a co-signé une tribune dans le journal britannique The Independant. Il dénonce un manque d’intérêt de la communauté scientifique pour les risques inhérents au développement de l’intelligence artificielle.

Associé à d’autres chercheurs de renom comme Stuart Russel, Max Tegmark et Frank Wilczek, il tire le signal d’alarme. « Développer avec succès l’intelligence artificielle pourrait être le plus grand événement dans l’histoire de l’humanité. Malheureusement, ce pourrait aussi être le dernier », estiment-ils.

Les risques qu’ils évoquent sont multiples mais renvoient tous à des problématiques déjà explorées dans le domaine du cinéma. Ainsi, dans des films comme iRobot ou Terminator, peut-on voir émerger des formes d’intelligence artificielle (souvent associées à des robots) ultra-connectées et omniprésentes? Lorsque celles-ci décident de se retourner contre leurs créateurs, elles sont capables de bloquer la plupart des services et infrastructures qui nous font vivre actuellement.

Pure fiction? Stephen Hawking et les trois autres scientifiques estiment que ces scénarios restent plausibles. « On peut imaginer que cette technologie soit capable de déjouer les marchés financiers, de dépasser les scientifiques humains, de manipuler les dirigeants et développer des armes qu’on ne puisse pas comprendre. L’incidence à court terme de l’intelligence artificielle dépend de celui qui la contrôle, mais, à long terme, cela dépend de la possibilité concrète de la contrôler. »

Asservir l’intelligence artificielle avant qu’elle ne nous asservisse

Que recommandent les quatre personnalités ? Il faut modifier la nature des travaux portés sur l’intelligence artificielle. Il faudrait associer la volonté de créer une nouvelle intelligence aux recherches portant sur les moyens de la contrôler. Reviendrait alors sur le tapis d’autres problématiques comme celle du servage. Créer une forme d’intelligence et l’asservir ne serait-ce pas immoral (on se souvient d’ailleurs que le mot « Robot » est issu de racines slaves référant au travail, aux corvées).

Actuellement, les technologies faisant appel aux fondamentaux de l’IA comme les assistants personnels des smartphones (Siri, Cortana…) ou encore l’ordinateur Watson d’IBM et les voitures intelligentes de Google, ne « font que pâle figure comparé à ce qui pourrait advenir dans les dizaines prochaines années ».

Reste à savoir si les trois lois de la robotique d’Asimov* suffiront à nous protéger quand la machine décidera de sa propre destinée.

Notes:

Stephen Hawking est directeur de recherche en mathématiques appliquées et physiques théoriques de l’Université de Cambridge. Stuart Russell professeur en sciences informatiques de l’Université de Berkeley (Californie). Max Tegmark et Frank Wilczek sont des experts en physiques au MIT.

* Lois de la robotique d’Asimov

Au nombre de trois, les lois de la robotique énoncées par l’écrivain Isaac Asimov dans ses récits de science-fiction sont censées garantir le fait qu’un robot ne pourra jamais nuire à un humain de quelle que manière que ce soit.

  1. Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.
  2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Itespresso

Quand Emmanuel Todd cogne sur le journal Le Monde, "l'establishment", "l'oligarchie"; il assume "UMPS" et "tous pourris"
Le journal communiste "La Marseillaise" en cessation de paiements

Commentaires

Accueil
Menu
X