Sam Altman a averti que les progrès de l’intelligence artificielle pourraient provoquer un « choc mondial » plus tôt cette année, soulignant l’inquiétude croissante quant aux dangers des systèmes d’IA de plus en plus sophistiqués. Cette déclaration intervient alors qu’OpenAI a publié un plan décrivant comment les gouvernements devraient se préparer aux perturbations économiques et sécuritaires liées à l’IA.
Dans une récente interview, Altman a déclaré que le rythme du développement de l’IA s’accélère au point que les systèmes existants de gouvernance et de répartition des richesses ne suffiront plus, appelant à un nouveau « partenariat social » similaire au changement radical de politique observé au début du 20e siècle. Le PDG d’OpenAI, Sam Altman, s’exprime sur le « lavage de l’IA » et l’arrêt de l’industrie lors du Sommet indien sur l’impact de l’IA 2026.
Alerte aux risques cyber et biologiques
Altman a noté que les cyberattaques et les menaces environnementales constituent les risques associés aux systèmes d’IA avancés. Il a ajouté qu’il est “possible” que les outils d’IA soient utilisés pour lancer des cyberattaques à grande échelle dans un avenir proche, qui pourraient cibler des services publics ou des organisations. Dans le même temps, il a averti que l’IA pourrait abaisser la barre pour les méchants qui souhaitent créer des armes qui nuisent à la vie.
Soulignant que l’IA peut également accélérer les avancées cliniques et les guérisons, Altman a déclaré que la double utilisation de la technologie accélérerait la sécurité. Les opportunités en Inde en matière d’IA sont impressionnantes : Sam Altman récompense le pays comme le marché à la croissance la plus rapide lors de l’OpenAI India AI Impact Summit 2026.
Plan directeur pour gérer l’impact de l’IA
Le document de 13 pages d’OpenAI, intitulé Industrial Policy for the Intelligence Age, propose un certain nombre de façons de gérer l’impact de l’IA sur la société.
Parmi les idées clés figure la création d’un fonds d’investissement public qui donnerait aux citoyens une participation financière dans la croissance tirée par l’IA. La proposition inclut également d’éventuelles taxes sur l’automatisation, reflétant les craintes que l’IA puisse réduire les emplois traditionnels et les recettes fiscales. Ce document place ces points de vue comme un point de départ pour des discussions politiques plutôt que comme une opinion fixe.
Le plan prévoit un examen hebdomadaire de quatre jours, permettant aux employés de bénéficier d’avantages basés sur l’IA. Il introduit également l’idée de « liberté pour l’IA », affirmant que l’accès aux outils d’IA doit être traité comme une nécessité fondamentale au même titre que l’électricité ou Internet.
Il s’agit de garantir la participation aux avantages de l’IA, en particulier pour les petites entreprises, les écoles et les communautés mal desservies. Le document couvre également des scénarios plus extrêmes, notamment la possibilité de systèmes d’IA autonomes difficiles à contrôler ou à mémoriser.
Dans de tels cas, OpenAI fournit une solution collaborative permettant aux gouvernements et aux organisations de contenir les risques potentiels. Il propose également des mesures d’autodéfense qui pourraient conduire à une augmentation des aides sociales, comme les allocations de chômage, si la migration de l’IA dépasse certaines limites.
Altman a reconnu que plusieurs entreprises développent des systèmes d’IA avancés et a souligné que la responsabilité de la gestion des risques ne devrait pas incomber à une seule organisation. Les analystes notent que le plan reflète également les efforts d’OpenAI pour façonner les politiques futures et se positionner comme un acteur actif dans la résolution des défis liés à l’IA.
(L’article ci-dessus est paru pour la première fois sur NEWLY le 6 avril 2026 à 20h41 IST. Pour plus d’informations et de mises à jour sur la politique, le monde, les sports, le divertissement et le style de vie, visitez notre site Web Latestly.com).