Dario Amodei a développé Anthropic avec l’idée d’en faire un exemple de modèle de langage éthique et sécurisé.

Will AI Help to Better the Future of CNC Manufacturing Industry?

Fondées sur ses propres critères de sécurité, ses appréhensions portent sur la possibilité que :

L'IA devienne autonome et capable de "s'auto-répliquer" d'ici un an et redoute également que celle-ci puisse être utilisée à mauvais escient. 

Résultat d’images pour terminatorOn croirait voir là un prémisse de la saga cinématographique Terminator, où des robots dotés d’une superintelligence et complètement autonomes, mènent la guerre aux humains.

 

 

 

Toutefois, les craintes de Dario Amodei sont bien réelles.

C’est ce que l’ancien membre d’Open AI a déclaré dans un entretien accordé au New York Times, que rapporte Futura.

Selon le directeur d’Anthropic, société spécialisée en intelligence artificielle, les IA pourraient très bientôt "s’auto-répliquer".

Dario Amodei a quitté OpenAen raison de divergences philosophiques  avec son ancien employeur, qu’il jugeait un brin aventureux. Il a donc développé Anthropic avec l’idée d’en faire un exemple de modèle de "langage éthique et sécurisé".

A cet égard, il a créé une échelle de mesure des dangers des intelligences artificielles :

AI Safety Levels (ASL). Anthropic a ainsi défini 4 niveaux de sécurité, notamment pour son chatbot, "Claude".

Résultat d’images pour GIF SOUCOUPECapital - Article de Thomas Graindorge

Date de dernière mise à jour : 2024-06-03