New Delhi, le 30 mars : Le célèbre chatbot chinois DeepSeek a subi la pire panne de son histoire, la plateforme étant hors ligne pendant plus de sept heures du jour au lendemain. Le système de suivi Outdetector a montré pour la première fois aux utilisateurs signalant le problème dimanche soir, selon plusieurs rapports, ajoutant que le site Web DeepSeek a reconnu la fuite à 21h35. La plateforme a indiqué que le problème avait été résolu environ deux heures plus tard, mais que les problèmes sont réapparus et n’ont été résolus qu’à 10 h 33 le lendemain, selon les informations. Les principales raisons sont encore inconnues, car DeepSeek n’a pas publié de document détaillant les causes de ce problème.
La startup chinoise d’IA DeepSeek a une disponibilité d’environ 99 % depuis qu’elle a dévoilé la version R1 en janvier 2025, selon son site Web. La plateforme chinoise est soudainement devenue populaire en janvier 2025, lorsque ses modèles d’IA ont conduit à la vente des technologies de la Silicon Valley et lui ont enlevé beaucoup de richesses. La montée en puissance de DeepSeek a alimenté les craintes selon lesquelles la domination américaine dans la course à l’IA est terminée. DeepSeek Down : IA Chatbot frappe fort après 7 heures en Chine, les emplois sont restaurés après plusieurs mises à jour
Cependant, la startup chinoise ne proposait pas les mêmes modèles que ChatGPT, Gemini et Claude de Google, OpenAI et Anthropic. La société de renseignement américaine Anthropic a récemment accusé trois sociétés chinoises, dont DeepSeek, d’extraire illégalement de sa marque Claude pour améliorer leurs systèmes. La société américaine a déclaré que ce processus de distillation soulevait des préoccupations en matière de sécurité nationale. Le mode opératoire du vol présumé impliquait la création d’environ 24 000 comptes frauduleux pour former des marques chinoises utilisant plus de 16 millions de transactions avec Claude. Sortie de DeepSeek V 3.1 : la société chinoise DeepSeek lance son nouveau système d’IA avec une hyper-inférence, une réflexion rapide et des compétences d’agent avancées.
La société a averti que les versions créées de cette manière pourraient ne pas comporter de mesures de sécurité définies par des entreprises comme elle et pourraient donc être utilisées contre les cyberattaques et les armes. Ces modèles permettraient « aux gouvernements autorisés d’utiliser les limites de l’IA pour se lancer dans des cyberactivités malveillantes, des campagnes antivirus et une surveillance de masse », a-t-il déclaré, avertissant que « la fenêtre pour le faire est étroite ».
(L’article ci-dessus est paru pour la première fois sur NEWLY le 30 mars 2026 à 13h30 IST. Pour plus d’informations et de mises à jour sur la politique, le monde, les sports, le divertissement et le style de vie, visitez notre site Web Latestly.com).