Dario Amodei a développé Anthropic avec l’idée d’en faire un exemple de modèle de langage éthique et sécurisé.
Fondées sur ses propres critères de sécurité, ses appréhensions portent sur la possibilité que :
L'IA devienne autonome et capable de "s'auto-répliquer" d'ici un an et redoute également que celle-ci puisse être utilisée à mauvais escient.
On croirait voir là un prémisse de la saga cinématographique Terminator, où des robots dotés d’une superintelligence et complètement autonomes, mènent la guerre aux humains.
Toutefois, les craintes de Dario Amodei sont bien réelles.
C’est ce que l’ancien membre d’Open AI a déclaré dans un entretien accordé au New York Times, que rapporte Futura.
Selon le directeur d’Anthropic, société spécialisée en intelligence artificielle, les IA pourraient très bientôt "s’auto-répliquer".
Dario Amodei a quitté OpenAI en raison de divergences philosophiques avec son ancien employeur, qu’il jugeait un brin aventureux. Il a donc développé Anthropic avec l’idée d’en faire un exemple de modèle de "langage éthique et sécurisé".
A cet égard, il a créé une échelle de mesure des dangers des intelligences artificielles :
AI Safety Levels (ASL). Anthropic a ainsi défini 4 niveaux de sécurité, notamment pour son chatbot, "Claude".
Capital - Article de Thomas Graindorge
Date de dernière mise à jour : 2024-06-03