Créer un site internet

Dario Amodei a développé Anthropic avec l’idée d’en faire un exemple de modèle de langage éthique et sécurisé.

Dario Amodei a développé Anthropic avec l’idée d’en faire un exemple de modèle de langage éthique et sécurisé.

© Alexander Limbach/Adobe Stock

Dario Amodei, ancien membre d'OpenAI, exprime ses inquiétudes quant au développement de l'intelligence artificielle.

Résultat d’images pour terminator

Fondées sur ses propres critères de sécurité, ses appréhensions portent sur la possibilité que...

IA devienne autonome et capable de "s'auto-répliquer" d'ici un an. Il redoute également que celle-ci puisse être utilisée à mauvais escient.

On croirait voir là un prémisse de la saga cinématographique Terminator, où des robots dotés d’une superintelligence et complètement autonomes mènent la guerre aux humains.

Toutefois, les craintes de Dario Amodei sont bien réelles.

Selon le directeur d’Anthropic, société spécialisée en intelligence artificielle, les IA pourraient très bientôt s’auto-répliquer. C’est ce que l’ancien membre d’Open AI a déclaré dans un entretien accordé au New York Times, que rapporte Futura.

Dario Amodei a quitté OpenAI en raison de " divergences philosophiques " avec son ancien employeur, qu’il jugeait un brin aventureux. Il a donc développé Anthropic avec l’idée d’en faire un exemple de modèle de langage éthique et sécurisé.

A cet égard, il a créé une échelle de mesure des dangers des intelligences artificielles :

AI Safety Levels (ASL). Anthropic a ainsi défini quatre niveaux de sécurité, notamment pour son chatbot, Claude.

Résultat d’images pour GIF SOUCOUPECapital - Article de Thomas Graindorge

Date de dernière mise à jour : 2024-04-19