L’intelligence artificielle est un fantastique outil quand il est au service de la santé, la technologie ou l’astrophysique.

Le pire n’est pas toujours là où on croit... Dans de mauvaises mains, elle peut aussi servir à des fins criminelles ou à la désinformation. 

Piratage de voitures autonomes ou de drones militaires, attaques phishing ciblées, infox fabriquées de toutes pièces ou manipulation de marchés financiers...

«L'expansion des capacités des technologies basées sur l'IA s'accompagne d'une augmentation de leur potentiel d'exploitation criminelle», avertit Lewis Griffin, chercheur en informatique à l'University College London (UCL).

Avec ses collègues, il a compilé une liste de 20 activités illégales perpétrées par IA, et les a classées par ordre de dommages potentiels, de gains ou profits engrangés, de facilité à mettre en œuvre et de difficulté à détecter et à stopper.

Afficher l’image source

Les crimes les plus "effrayants", comme les «robots cambrioleurs» s'introduisant dans votre appartement ne sont pas forcément les plus dangereuses, car ils peuvent facilement être déjoués et touchent peu de monde à la fois.

À l'inverse, les fausses informations générées par des «bots» ont la capacité à ruiner la réputation d'une personne connue ou à exercer un chantage. Difficiles à combattre, ces «deepfakes»  peuvent causer un tort économique et social considérable.

Intelligence artificielle : les menaces gravesde moyenne gravitéde faible intensité

Les menaces graves

Fausses vidéos :

- usurper l'identité d'une personne en lui faisant dire ou faire des choses qu'elle n'a jamais dite ou faites, dans le but de demander un accès à des données sécurisées, de manipuler l'opinion pour nuire à la réputation de quelqu'un... (Ces vidéos truquées sont quasi indétectables).

Résultat d’images pour l'intelligence artificielle  dans de mauvaises mains

 

Piratage de voitures autonomes :

  -  s’emparer des commandes d’un véhicule autonome pour s'en servir comme arme (par exemple perpétrer   une attaque terroriste, provoquer un accident, etc).

Hameçonnage sur mesure :

- générer des massages personnalisés et automatisés afin d'augmenter l'efficacité du phishing visant à collecter des informations sécurisées ou installer des logiciels malveillants.

Piratage des systèmes contrôlés par l'IA :

- perturber les infrastructures en causant par exemple une panne d'électricité généralisée, un engorgement du trafic ou la rupture de la logistique alimentaire.

Chantage à grande échelle :

- recueillir des données personnelles afin d'envoyer des messages de menace automatisés. L'IA pourrait également être utilisée pour générer de fausses preuves (par exemple de la «sextrosion»).

Fausses informations rédigées par IA : 

écrire des articles de propagande semblant être émises par une source fiable. L'IA pourrait également être utilisée pour générer de nombreuses versions d'un contenu particulier, afin d'accroître sa visibilité et sa crédibilité.

Résultat d’images pour LE DEEPFAKE PERMET D’ÉCHANGER DES VISAGES OU DE FAIRE UN FAUX DISCOURS À UNE PERSONNE

LE DEEPFAKE PERMET D’ÉCHANGER DES VISAGES OU DE FORMULER UN FAUX DISCOURS À UNE PERSONNE. 

Les menaces de moyenne gravité

Robots militaires :

- prendre le contrôle de robots ou armes à des fins criminelles. Une menace potentiellement très dangereuses mais difficile à mettre en œuvre, le matériel militaire étant généralement très protégé.

Escroquerie :

- vendre des services frauduleux en utilisant l'IA. Il existe de nombreux exemples historiques notoires d'escrocs qui ont réussi à vendre de coûteuses fausses technologiques à de grandes organisations, y compris des gouvernements nationaux et l'armée.

Corruption de données :

- modifier ou introduire délibérément de fausses données pour induire des biais spécifiques. Par exemple, rendre un détecteur insensible aux armes ou encourager un algorithme à investir dans tel ou tel marché.

Résultat d’images pour l'intelligence artificielle  dans de mauvaises mains

 

Cyberattaque basée sur l'apprentissage :

- perpétrer des attaques à la fois spécifiques et massives, par exemple en utilisant l'IA pour sonder les faiblesses des systèmes avant de lancer plusieurs attaques simultanées.

 

Drones d'attaque autonomes :

- détourner des drones autonomes ou s'en servir pour s'attaquer à une cible. Ces drones pourraient être particulièrement menaçants s'ils agissent en masse dans des essaims auto-organisés.

Refus d'accès :

- endommager ou priver des utilisateurs d'un accès à un service financier, à l'emploi, à un service public ou une activité sociale. Non rentable en soi, cette technique peut être utilisée comme "chantage".

Reconnaissance faciale : 

détourner les systèmes de reconnaissance faciale, par exemple en fabriquant de fausses photos d'identité (accès à un smartphonecaméras de surveillance, contrôle de passagers...)

Manipulation de marchés financiers :

- corrompre des algorithmes de trading afin de nuire à des concurrents, de faire baisser ou monter une valeur artificiellement, de provoquer un crash financier..

Résultat d’images pour l'intelligence artificielle  dans de mauvaises mains

L’humain aura toujours un rôle essentiel à jouer, en apportant notamment son intuition et ses capacités de déduction et de gouvernance. Mais cela ne suffira probablement bientôt plus, et il est grand temps de s’y préparer.

SHARE.Twitter Facebook Google+ Pinterest 

Résultat d’images pour GIF SOUCOUPEfuturasciences.com

Date de dernière mise à jour : 2024-01-31