L’UE va pour la première fois encadrer l’intelligence artificielle

Avec ChatGPT, OpenAI a relancé la course à l'IA, avec des pouvoirs publics qui ont du mal à suivre.

Avec ChatGPT, OpenAI a relancé la course à l'IA, avec des pouvoirs publics qui ont du mal à suivre. — Michael Dwyer/AP/SIPA

L'UE va mettre l'IA au pas.

L’Union européenne s’est accordée vendredi sur une législation inédite au niveau mondial pour réguler l’intelligence artificielle, après 3 jours de négociations intenses entre les Etats membres et le Parlement européen.

Les colégislateurs de l’UE ont trouvé un « accord politique » sur un texte qui doit favoriser l’innovation en Europe, tout en limitant les possibles dérives de ces technologies très avancées.

« Historique ! L’UE devient le premier continent à fixer des règles claires pour l’utilisation de l’IA », s’est félicité le commissaire européen Thierry Breton, à l’origine du projet présenté en avril 2021. 

Depuis cette date, "les discussions ont traîné en longueur"...

Le dernier round de négociation, démarré mercredi après-midi, aura lui-même durée près de 35 heures… Après de longues négociations, Thierry Breton a annoncé qu'un accord avait été conclu, dont les détails doivent encore être finalisés.

Chat GTP 3 : La révolution de l'IA pour tous et pour la création ...

La bombe ChatGPT

Le processus avait été percuté en fin d’année dernière par l’apparition de ChatGPT, le générateur de textes de la société californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes.

Ce système, comme ceux capables de créer des sons ou des images, ont révélé au grand public le potentiel immense de l’IA, mais aussi certains risques :

- La diffusion sur les réseaux sociaux de fausses photographies plus vraies que nature, a par exemple alerté sur le danger de manipulation de l’opinion. 20 Minutes avec AFP  09/12/23

Ce phénomène des IA génératives a été intégré dans les négociations en cours, à la demande des eurodéputés qui insistent sur un encadrement spécifique pour ce type de technologies à fort impact. Ils ont réclamé notamment plus de transparence sur les algorithmes et les bases de données géantes au coeur de ces systèmes.

Les Etats membres craignaient qu’une "régulation excessive" tue dans l’oeuf leurs champions naissants, comme Aleph Alpha en ALLEMAGNE et Mistal AI en FRANCE, en rendant prohibitifs les coûts de développement.

« Autonomie stratégique »

L’accord politique trouvé vendredi soir doit être complété par un travail technique pour finaliser le texte.

« Nous allons analyser attentivement le compromis trouvé aujourd’hui et nous assurer dans les prochaines semaines que le texte préserve la capacité de l’Europe à développer ses propres technologies d’intelligence artificielle et préserve son autonomie stratégique », a réagi le ministre français du Numérique, Jean-Noël Barrot.

Le secteur de la tech se montre critique.

« La rapidité semble avoir prévalu sur la qualité, avec des conséquences potentiellement désastreuses pour l’économie européenne », a estimé Daniel Friedlaender, responsable Europe du CCIA, un de ses principaux lobbies.

Selon lui, « un travail technique » est désormais « nécessaire » sur des détails cruciaux.

Sur les IA génératives, le compromis prévoit une approche à deux vitesses :

 Des règles s’imposeront à tous pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et pour vérifier qu’ils ne violent pas la législation sur les droits d’auteur.

Les développeurs devront par ailleurs s’assurer que les sons, images et textes produits seront bien identifiés comme artificiels. Des contraintes renforcées s’appliqueront aux seuls systèmes les plus puissants..

Règles imposées aux systèmes à « haut risque »

Le texte reprend les principes des réglementations européennes existantes en matière de sécurité des produits qui imposent des contrôles reposant d’abord sur les entreprises. Le coeur du projet consiste en une liste de règles imposées aux seuls systèmes jugés à « haut risque », essentiellement ceux utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre

Ces systèmes seront soumis à une série d’obligations comme celles de 'prévoir un contrôle humain sur la machine', l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque.

La législation prévoit un encadrement particulier des systèmes d’IA qui interagissent avec les humains. Elle les obligera à informer l’utilisateur qu’il est en relation avec une machine.

Comment le futur de l'intelligence artificielle pourrait révolutionner ...

Les interdictions seront rares.

Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en CHINE, ou encore l’identification biométrique à distance des personnes dans les lieux publics pour éviter une "surveillance" de masse des populations.

Sur ce dernier point, les Etats ont toutefois obtenu des exemptions pour certaines "missions des forces de l’ordre" comme la lutte contre le terrorisme.

Contrairement aux codes de conduite volontaires de certains pays, la législation européenne sera dotée de moyens de surveillance et de sanctions avec la création d’un office européen de l’IA, au sein de la COMMISSION EUROPEENNE.

Il pourra infliger des "amendes" jusqu’à 7 % du chiffre d’affaires, avec un plancher de 35 millions d’euros, pour les infractions les plus graves. 09/12/2023 -   Bruxelles (AFP) -   © 2023 AFP 20 minutes.fr 08/12/2023 

Sam Altman, patron d'Open AI.

Sam Altman, patron d'Open AI.© Patrick T. Fallon

L'équipe "Superalignement" d'Open AI aspire à défendre la propriété intellectuelle de l'homme face à l'IA.

Jusqu'où ira l'intelligence artificielle?

Si elle permet, désormais, de réaliser une opération chirurgicale à distance, savoir si le père Noël existe vraiment ou rédiger un projet de loi, son utilisation et ses capacités posent question...

Pour OpenAI, leader mondial du raisonnement artificiel et créateur de ChatGPT, il est l'heure de se pencher sur le problème du contrôle d'une IA plus intelligente que les humains.

Pour y parvenir, l'entreprise à but lucratif  "plafonné" a décidé de lancer l'équipe "Superalignment", en juillet 2023.

Elle sert à diriger, réguler et gouverner les différents systèmes d'intelligence artificielle, selon le communiqué d'Open AI lors du lancement de l'entité. Un programme qui pèse 10 millions de dollars de budget.

"C'est un objectif ambitieux et nous ne sommes pas assurés d'y parvenir. Seul un effort ciblé et concerté pourra résoudre le problème d'une IA trop intelligente. De nombreuses mesures se sont révélées prometteuses lors d'expériences préliminaires".

* L'équipe est dirigée par le cofondateur d'OpenAI, Ilya Sutskever, et suppléée par Jan Leike.

Trois de leurs chercheurs étaient, la semaine passée, à la conférence sur les Systèmes de traitement de l'information neuronale (NeurIPS) à La Nouvelle-Orléans (Louisiane, Etats-Unis) pour présenter les derniers travaux d'OpenAI, visant à garantir le "bon comportement" de leur IA.

"Un vrai problème"

"Les progrès sur l'IA ont explosé cette année et je peux vous assurer qu'ils ne s'arrêteront pas là", a confié Leopold Aschenbrenner, l'un des trois chercheurs, au média spécialisé TechCrunch.

"Je pense que l'intelligence artificielle va bientôt atteindre un niveau humain. S'ensuivront des capacités intellectuelles surhumaines. Ce qui représente un vrai problème, peut-être le plus important de notre époque".

La prise de position du chercheur peut faire "froid dans le dos", et pourtant l'IA "superintelligente" est aux portes de la réalité.

Sam Altman, créateur d'Open AI, utilise même comme comparaison le projet Manhattan (un projet de recherche du gouvernement américain dont l'objectif était de produire une bombe atomique au cours de la Seconde Guerre mondiale) pour évoquer les travaux d'Open AI.

Ces derniers devraient permettre de "se protéger contre des risques catastrophiques" (ici, la prise de contrôle de l'IA sur l'humain).

Selon TechCrunch, l'équipe "Superalignment" tente actuellement de créer "des cadres de gouvernance et de contrôle" pour "superviser" les systèmes d'intelligence artificielle.

Les chercheurs s'efforcent de faire fonctionner GPT-4 (le dernier modèle d'IA de l'entreprise) avec GPT-2 comme "chef".

Résultat d’images pour GIF SOUCOUPEmsm.com

 

Date de dernière mise à jour : 2024-03-09