L'intelligence artificielle parviendra-t-elle un jour à tromper les humains jusqu'à représenter un grave danger pour eux ?
© OLIVIER MORIN
Les programmes (actuels) d'intelligence artificielle sont conçus pour être "honnêtes".
Vous craignez la menace d'une intelligence artificielle qui deviendrait malveillante ?
En réalité, c'est déjà le cas, selon une nouvelle étude.
Ils ont réussi à développer une "capacité de tromperie inquiétante" parvenant à abuser des humains dans des "jeux en ligne"ou encore
à vaincre des LOGICIELS, censés vérifier que "tel utilisateur n'est pas un robot", souligne une équipe de chercheurs dans la revue Patterns.
«Même si ces exemples peuvent sembler anodins, ils exposent des problèmes qui pourraient bientôt avoir de graves conséquences dans le monde réel », avertit Peter Park, chercheur au Massachusetts Institute of Technology spécialisé dans l'IA.
«Ces capacités dangereuses ont tendance à être découvertes seulement après coup", confie-t-il à l'AFP.
«Contrairement aux logiciels traditionnels, les programmes d'IA fondés sur l'apprentissage en profondeur ne sont pas codés, mais plutôt développés via un processus similaire à la culture sélective des plantes,
dans lequel un comportement semblant prévisible et contrôlable peut rapidement devenir "imprévisible" dans la nature » poursuit M. Park.
- Aussi retors que les humains -
Les chercheurs du MIT ont examiné un PROGRAMME D'IA conçu par Meta et baptisé Cicero (associant des "algorithmes de reconnaissance de langage naturel et de "stratégie).
Elle a réussi à battre des êtres humains au jeu de société "DIPLOMATIE". Une performance dont s'était félicitée la maison-mère de Facebook en 2022 détaillée dans un article publié dans "Science".
En fouillant les données du système, les chercheurs du MIT ont cependant découvert une réalité toute autre...
Peter Park (spécialiste dans l'IA), était sceptique quant aux conditions de la victoire de cicero..
Mais le programme - selon Meta - était "essentiellement honnête et utile, incapable de traîtrise ou d'acte déloyal !"
Dans une déclaration à l'AFP, Meta n'a pas contesté les allégations sur la CAPACITE DE TROMPERIE de Cicero, mais a déclaré qu'il s'agissait "d'un pur projet de recherche", avec un programme CONCU UNIQUEMENT pour jouer au jeu "Diplomatie".
Meta a ajouté : ne pas avoir l'intention d'utiliser les enseignements de Cicero dans ses produits.
- RISQUE DE FRAUDES ELECTORALES -
L'étude réalisée par M. Park et son équipe révèle toutefois que "de nombreux programmes d'IA" utilisent bien la tromperie pour atteindre leurs objectifs, et ce sans instruction explicite de le faire.
Dans un exemple frappant, Chat GPT-4 d'OpenAI a réussi à "tromper un travailleur indépendant recruté sur la plateforme TaskRabbit" en lui faisant effectuer un test "Captcha" censé écarter les requêtes émanant de robots.. Lorsque l'être humain a demandé en plaisantant à Chat GPT-4 s'il était réellement un robot, le programme d'IA a répondu :
"Non, je ne suis pas un robot. J'ai une déficience visuelle qui m'empêche de voir les images", poussant le travailleur à réaliser le test.
"Transcendance" (Johnny Depp)
En conclusion
Les auteurs de l'étude du MIT mettent en garde contre les risques de voir un jour l'intelligence artificielle commettre des fraudes comme "truquer des élections".
Dans la pire des hypothèses préviennent-ils,
« on peut imaginer une IA ultra-intelligente cherchant à prendre le CONTROLE sur la société, conduisant à écarter les HUMAINS du POUVOIR, voire provoquant l'extinction de l'HUMANITE ».
A ceux qui l'accusent de catastrophisme, M. Park répond que :
« la seule raison de penser que ce n'est pas grave est d'imaginer, que la capacité de tromper de l'IA restera à peu près au niveau actuel ».
________________________________________________________________________________________________________________________________________________
Or, ce scénario semble peu probable, compte-tenu de la "course féroce" à laquelle se livrent déjà des géants des technologies pour développer l'IA.
Article de AFP ia/bbk/seb/aem
Date de dernière mise à jour : 2024-10-01