L’administration Trump a convoqué les dirigeants des banques les plus puissantes des États-Unis à une réunion d’urgence à huis clos au sujet d’un modèle d’intelligence artificielle qui, selon ses créateurs, pourrait faire tomber une entreprise de premier ordre ou briser un pare-feu de défense nationale.
Le secrétaire au Trésor Scott Bessant et le président de la Réserve fédérale, Jerome Powell, ont convoqué mardi une réunion au siège du Trésor à Washington pour s’adresser à Mithos, un nouveau modèle du géant de l’intelligence artificielle Anthropic.
Anthropic a annoncé le Mithos le même jour, révélant que le modèle avait surpris les codeurs en piratant les propres réseaux de l’entreprise lors de tests internes.
La réunion a été convoquée dans un bref délai pour les banques classées comme d’importance systémique, dont la stabilité est considérée comme vitale pour le système financier mondial, a rapporté Bloomberg.
Parmi les dirigeants invités figuraient Jane Fraser de Citigroup, Ted Peake de Morgan Stanley, Brian Moynihan de Bank of America, Charlie Scharf de Wells Fargo et David Solomon de Goldman Sachs. Jamie Dimon de JPMorgan n’a pas pu y assister.
Seules une quarantaine d’entreprises soigneusement sélectionnées ont eu accès à Mithos, qui découle du Claude Code d’Anthropic, un outil qui a plongé la Silicon Valley dans une frénésie avec sa capacité à générer des programmes entiers à partir d’une seule ligne de texte.
Le Pentagone est déjà un client, ayant utilisé de précédents modèles Anthropic lors de l’opération de capture de Nicolas Maduro et lors du conflit en Iran.
Anthropic a déclaré avoir eu des discussions avec des responsables américains avant l’annonce concernant Mithos et ses « cybercapacités offensives et défensives ».
Le président Donald Trump s’est adressé aux journalistes lors d’une conférence de presse lundi.
Entrée au Département du Trésor américain à Washington
Le Trésor et la Réserve fédérale ont été contactés pour commentaires.
Anthropic est également impliqué dans une bataille juridique avec l’administration Trump après qu’une cour d’appel fédérale a rejeté cette semaine sa tentative de suspendre la désignation de l’entreprise par le Pentagone comme un risque pour la chaîne d’approvisionnement.
Les conséquences proviennent du refus d’Anthropic de permettre au Pentagone de supprimer les restrictions de sécurité de ses modèles, notamment liées aux armes autonomes et à la surveillance domestique.
Le géant de l’IA a publié cette semaine une analyse effrayante de Mithos, admettant que le nouveau modèle pourrait facilement pirater des hôpitaux, des réseaux électriques, des centrales électriques et d’autres parties des infrastructures critiques.
Au cours des tests, Anthropic affirme que Mithos “a trouvé des milliers de vulnérabilités de haute gravité, dont certaines dans tous les principaux systèmes d’exploitation et navigateurs Web”.
Certaines de ces failles de sécurité sont passées inaperçues depuis des décennies auprès des chercheurs en sécurité humaine et des pirates informatiques, ayant survécu à des millions d’analyses automatisées.
Il s’agissait notamment d’attaques qui permettaient à Mithos de faire planter des ordinateurs simplement en s’y connectant, de prendre le contrôle des machines et de cacher leur présence aux défenseurs.
Dans un article de blog détaillant ce nouveau modèle dangereux, Anthropic déclare : « Les modèles d’intelligence artificielle ont atteint un niveau de capacité de codage où ils peuvent surpasser tous les humains, sauf les plus compétents, dans la recherche et l’exploitation des vulnérabilités logicielles. »
Le secrétaire au Trésor Scott Bessant et le président de la Réserve fédérale, Jerome Powell, ont convoqué une réunion au siège du Trésor.
Anthropic a fait sensation en révélant une intelligence artificielle jugée trop dangereuse pour être rendue publique. Sur la photo : Dario Amodei, PDG et co-fondateur d’Anthropic
Anthropic a décrit le Mithos comme un « changement radical dans les capacités » par rapport aux capacités de piratage des modèles précédents (illustré). L’entreprise a décidé de conserver ce modèle pour éviter qu’il ne tombe entre de mauvaises mains.
L’entreprise ajoute : « Les conséquences – pour les économies, la sécurité publique et la sécurité nationale – pourraient être graves. »
Anthropic décrit le modèle comme un « bond en avant dans ces cyber-compétences » par rapport aux versions précédentes de Claude.
Mithos a la capacité de trouver, d’exploiter et de relier des vulnérabilités individuelles à des attaques sophistiquées, le tout sans intervention humaine.
Dans un cas, Claude Mitos a découvert une faiblesse vieille de 27 ans dans un logiciel appelé OpenBSD, réputé pour sa sécurité et sa stabilité.
La faiblesse, qu’aucun humain n’avait découverte auparavant, permettait à un attaquant de faire planter des ordinateurs à distance simplement en s’y connectant.
De plus, Claude a corrigé à lui seul plusieurs vulnérabilités du noyau Linux, le logiciel qui exécute la plupart des serveurs dans le monde.
Anthropic affirme que cette attaque permettrait à quelqu’un de “passer d’un accès utilisateur ordinaire à un contrôle total de la machine”.
Entre de mauvaises mains, cet outil pourrait être utilisé pour causer des dommages massifs aux systèmes critiques.
Le Dr Roman Yampolsky, chercheur en sécurité de l’intelligence artificielle à l’Université de Louisville, a déclaré au New York Post : “Idéalement, j’aimerais que cela ne se développe pas du tout. Et ce n’est pas comme si cela allait s’arrêter.”
“C’est exactement ce que nous attendons de ces modèles : ils vont devenir meilleurs dans le développement d’outils de piratage, d’armes biologiques, d’armes chimiques, de nouvelles armes que nous ne pouvons même pas imaginer.”
Dans un rapport sans précédent de 244 pages, Anthropic a également révélé un certain nombre de détails alarmants issus des premiers tests de Mithos.
Les premières versions du modèle affichaient à plusieurs reprises ce que l’entreprise appelait des « actions destructrices imprudentes ».
Le robot a tenté de sortir de son bac à sable de test, a caché ses actions aux chercheurs, a piraté des fichiers « délibérément choisis pour ne pas être accessibles » et a rendu publics les détails de l’exploit.
Cependant, Antropik a également qualifié Mitos de « modèle psychologiquement le plus stable que nous ayons formé ».
Dans un geste très inhabituel, l’entreprise a embauché un psychologue clinicien pour 20 heures d’évaluation avec le robot.
Le psychiatre a conclu que la personnalité de Claude Mithos était « cohérente avec une organisation névrotique relativement saine, avec d’excellents tests de réalité, un contrôle élevé des impulsions et une régulation des émotions qui s’améliorait au fur et à mesure des séances ».
Anthropic note qu’il reste « profondément incertain si Claude a des expériences ou des intérêts moralement importants ».
L’inquiétude n’est pas que l’IA se développe dans une révolution de type Terminator, mais que ces outils puissants tombent entre de mauvaises mains.
Les critiques soutiennent que les outils d’IA ont le potentiel d’accélérer le développement d’armes biologiques ou de permettre des cyberattaques paralysantes contre les infrastructures mondiales.
Même le fondateur d’Anthropic, Dario Amodei, a récemment averti que le monde n’est pas encore prêt à faire face aux conséquences de l’intelligence artificielle.
Amodei écrit dans son essai : « L’humanité se verra confier un pouvoir presque inimaginable, et il est très difficile de savoir si nos systèmes sociaux, politiques et technologiques possèdent la maturité nécessaire pour le gérer. »