Une femme californienne a poursuivi OpenAI, alléguant que son chatbot IA, ChatGPT, avait contribué à alimenter une campagne de harcèlement et d’abus à son encontre. La plainte, déposée vendredi, allègue que la plateforme a créé du contenu favorisant la fraude des agresseurs présumés, ce qui contribue à l’augmentation du nombre de personnes dans le monde.
Selon des documents déposés au tribunal, la plaignante, connue sous le nom de Jane Doe, accuse ses abonnés d’utiliser ChatGPT pour créer de fausses nouvelles sur sa vie personnelle. Le procès allègue qu’en fournissant des informations personnelles, l’agresseur a pu créer des histoires décrivant Doe dans des situations fausses et préjudiciables, notamment des allégations d’infidélité et d’activités criminelles.
Le message décrit l’IA comme un « multiplicateur de force », arguant que ses réponses conversationnelles semblent confirmer les convictions du harceleur. Contrairement aux plateformes en ligne, le procès affirme que les solutions générées par l’IA peuvent sembler plus fiables et personnalisées, ce qui peut accroître la perception des risques. Sam Altman renvoie le retour d’Elon Musk sur la discussion sur la mort du GPT ; Le PDG d’OpenAI déclare que le pilote automatique de Tesla a causé 50 morts et dit qu’il ne démarrera pas sur Grok
La partie la plus importante du procès repose sur des avertissements qui auraient été envoyés à OpenAI. Doe dit avoir contacté l’entreprise à plusieurs reprises, fournissant des preuves telles que des restrictions et des exemples de mauvais produits. Malgré cela, le procès allègue que des garanties adéquates n’ont pas été mises en place pour se protéger contre toute utilisation abusive, y compris l’interdiction des informations personnelles identifiables.
L’affaire soulève des questions juridiques difficiles sur la responsabilité des développeurs d’IA. Traditionnellement, les plateformes s’appuient sur les protections prévues par l’article 230 de la loi sur la décence en matière de communications, qui protège les entreprises de toute responsabilité concernant le contenu généré par les utilisateurs. Cependant, les experts juridiques soulignent que cette affaire pourrait tester cette limite, car les machines IA généreraient activement, plutôt que de simplement recevoir, du contenu. Qu’est-ce que ChatGPT Prisme ? Découvrez le nouvel espace de travail gratuit LaTeX-Native d’OpenAI pour la recherche scientifique et la collaboration.
OpenAI n’a pas commenté publiquement le procès, mais a précédemment déclaré qu’il utilisait des mesures de sécurité, notamment un filtrage automatique et une surveillance publique, pour empêcher toute utilisation abusive. L’entreprise affirme que ses systèmes d’IA sont continuellement mis à jour pour améliorer la sécurité et réduire les effets secondaires.
L’affaire soulève également des inquiétudes concernant le “harcèlement grâce à l’IA”, les experts avertissant que l’intelligence artificielle pourrait être utilisée à mauvais escient à des fins de harcèlement, de fraude et de harcèlement. Alors que l’intelligence artificielle s’intègre de plus en plus dans la vie quotidienne, cette affaire pourrait être un exemple de la façon dont les tribunaux définissent la responsabilité à l’ère de l’IA reproductive.
Si l’affaire persiste, elle pourrait façonner les futures réglementations et définir des attentes claires sur la manière dont l’industrie de l’IA équilibre l’innovation et la sécurité des utilisateurs.
(L’article ci-dessus a été publié pour la première fois le 11 avril 2026 à 22 h 29 IST. Pour plus d’informations et de mises à jour sur la politique, le monde, les sports, le divertissement et le style de vie, visitez notre site Web Latestly.com).