Bombay, le 1er avril : La startup d’IA Anthropic a confirmé mardi que le code interne de son outil populaire, le Claude Code, avait été divulgué en ligne par inadvertance. La société a déclaré que cela était dû à un « problème de version » causé par une erreur humaine plutôt que par une faille de sécurité. Bien que la fuite offre un aperçu rare de la conception de l’un des fournisseurs de codecs les plus performants du secteur, Anthropic a déclaré qu’aucune information ou donnée client n’avait été compromise au moment de sa révélation.
Erreur humaine derrière l’exposition du code source interne de Claude Code
La fuite a attiré l’attention mardi matin après qu’une publication sur X (anciennement Twitter) contenant un lien vers le code ait été partagée à 4 h 23 HE. La publication a reçu plus de 21 millions de vues, démontrant le vif intérêt de l’entreprise pour la technologie Anthropic. Claude Down? Le chatbot Anthropic AI fait face à une panne mondiale, les utilisateurs signalent des erreurs
Le code source interne de X Post By Claude Code devient viral
Le code de Claude a été téléchargé via un fichier map dans leur registre npm !
Code: pic.twitter.com/rYo5hbvEj8
– Chaofan Shou (@Fried_rice) 31 mars 2026
“Il s’agit d’un problème public causé par une erreur humaine, et non par une faille de sécurité”, a déclaré Anthropic dans un communiqué. La société a indiqué qu’elle développait actuellement de nouvelles procédures internes pour éviter des erreurs de package similaires dans les futures mises à jour.
Impact sur la position concurrentielle d’Anthropic
L’exposition du code source est un attrait majeur pour la startup de San Francisco. Claude Code, rendu public en mai 2025, est le succès commercial d’Anthropic. En février 2026, le montant dépensé s’élevait à 2,5 milliards de dollars. L’accès à ce code fournirait aux concurrents – notamment OpenAI, Google et xAI – des informations précieuses sur la manière dont Anthropic a conçu l’outil pour créer, déboguer et automatiser des tâches de développement logiciel complexes. Les trois principaux acteurs ont récemment augmenté la distribution de leurs produits pour créer un environnement d’IA compétitif.
Une série d’erreurs de données
Cet événement marque la deuxième surveillance de données d’Anthropic en moins d’une semaine. Jeudi, un rapport de Fortune a révélé qu’une description du prochain modèle d’IA et d’autres documents internes avaient été trouvés dans une cache accessible au public. Ces incidents répétés ont soulevé des questions sur les politiques internes de gestion des données de l’entreprise, fondée en 2021 par d’anciens dirigeants d’OpenAI, avec un accent majeur sur la sécurité et la fiabilité de l’IA. Claude Nouvelle mise à jour des fonctionnalités : l’assistant AI d’Anthropic permet aux utilisateurs de Mac de contrôler des ordinateurs distants et d’effectuer des actions via un smartphone.
Anthropic est surtout connu pour la famille de grandes marques « Claude ». Claude Code est conçu pour s’intégrer directement dans l’environnement de programmation, permettant une expérience plus intégrée et « basée sur des agents » par rapport aux environnements de médias sociaux. Son lancement rapide au cours de l’année écoulée a rendu l’entreprise encore plus importante dans la mesure où elle vise à rester un laboratoire d’IA de premier plan. Malgré la fuite, Anthropic affirme que les fonctionnalités de la plateforme restent sécurisées pour ses entreprises et ses utilisateurs individuels.
(L’article ci-dessus est paru pour la première fois sur NEWLY le 1er avril 2026 à 09h25 IST. Pour plus d’informations sur la politique, le monde, les sports, le divertissement et le style de vie, visitez notre site Web Latestly.com).