Les Américains craignent de plus en plus de perdre toutes leurs économies à cause d’escroqueries trompeuses liées à l’IA qui deviennent de plus en plus réalistes de jour en jour.
Un nouveau sondage du Daily Mail révèle qu’un nouveau sondage du Daily Mail révèle que l’IA divulgue ses données privées en ligne et que davantage d’emplois sont confiés à des robots alimentés par l’IA.
Une enquête menée auprès de plus de 3 000 personnes a révélé que 37 % des Américains considèrent la fraude basée sur l’IA comme l’une de leurs trois principales préoccupations.
Ce chiffre dépasse largement les préoccupations évoquées telles que l’IA présentant des préjugés politiques (18 %), les chatbots IA affectant l’éducation (19 %) et les robots intelligents réduisant la créativité humaine (24 %).
Selon le dernier rapport du FBI sur la cybercriminalité, les Américains sont au bon endroit lorsqu’il s’agit de savoir comment l’intelligence artificielle pourrait potentiellement nuire à eux-mêmes et à leurs familles.
L’Internet Crime Complaint Center (IC3) du FBI a constaté qu’un peu moins de 900 millions de dollars avaient été perdus l’année dernière à cause des crimes liés à l’IA. Plus des deux tiers de cet argent volé étaient liés à des stratagèmes impliquant des opportunités d’investissement frauduleuses.
Le FBI a prévenu : « Les clubs d’investissement utilisent des vidéos générées par l’IA et les voix de célébrités, de PDG ou de personnes de confiance pour créer de fausses opportunités à enjeux élevés. »
“Ces escroqueries comportent souvent de fausses mentions d’aspect professionnel sur les réseaux sociaux ou lors d’appels vidéo. Il est donc difficile pour les victimes de découvrir qu’elles ont été victimes d’une arnaque.”
Les électeurs américains ont déclaré que leur plus grande préoccupation concernant l’IA se résume à la fraude générée par l’IA qui leur vole leur argent.
Les chatbots IA sont devenus un outil quotidien aux États-Unis, mais les électeurs ont déclaré au Daily Mail qu’ils s’inquiétaient pour leur sécurité et leur influence (photo)
Les outils d’IA ont aidé les fraudeurs à créer des contrefaçons plus sophistiquées que jamais, en utilisant des tactiques telles que le clonage vocal et de fausses vidéos pour convaincre les gens ordinaires de remettre leur argent ou d’accéder à leurs comptes bancaires.
Le clonage vocal implique que les fraudeurs prennent de courts enregistrements audio publics, souvent à partir des réseaux sociaux, et les utilisent pour recréer la voix d’une personne grâce à des programmes d’IA avancés.
Selon la Federal Trade Commission (FTC) des États-Unis, il s’agissait d’une tactique courante dans le cadre de « l’arnaque aux grands-parents », où AI simule un appel d’urgence, souvent destiné à des personnes âgées, en prétendant qu’un membre de la famille est dans le besoin et a besoin d’argent immédiatement.
Parallèlement, l’intelligence artificielle a amélioré la capacité de créer de fausses vidéos si parfaites que même les grandes entreprises ont été victimes d’escroqueries. En 2024, la société d’ingénierie britannique Arup a perdu 25,6 millions de dollars après qu’un faux appel vidéo se soit fait passer pour son directeur financier et ait autorisé un transfert frauduleux.
La nouvelle enquête, menée par JL Partners entre décembre 2025 et février 2026, révèle également que l’impact de l’intelligence artificielle sur la sûreté et la sécurité des enfants était une préoccupation majeure, en particulier chez les jeunes adultes âgés de 18 à 49 ans.
Dans l’ensemble, 14 % des personnes interrogées ont classé leur crainte que l’IA ne mette en danger la sécurité des enfants comme leur principale préoccupation.
Selon le Centre national pour les enfants disparus et exploités, un groupe à but non lucratif dédié à la protection des enfants, l’intelligence artificielle générative est devenue ces dernières années la nouvelle arme préférée des prédateurs d’enfants.
En 2025, le groupe a reçu plus de 1,5 million de signalements impliquant des vidéos, des images et des contrefaçons génératives d’IA utilisées pour exploiter sexuellement des enfants.
Un nouveau sondage révèle que 14 % des Américains déclarent que la menace que représente l’intelligence artificielle pour la sécurité des enfants est leur plus grande préoccupation.
Près de la moitié des personnes interrogées (48 %) estiment que l’intelligence artificielle a un impact négatif sur les enfants. Les électeurs de plus de 65 ans étaient les plus susceptibles de croire cela, un sur trois affirmant que l’IA a un impact « très négatif ».
Il est intéressant de noter que les adultes âgés de 30 à 49 ans étaient les moins susceptibles de croire que l’IA était mauvaise pour les enfants, avec seulement 14 % d’entre eux qualifiant son impact de « très négatif », et 14 % affirmant que l’impact de l’IA était « très positif » pour les enfants.
Le sondage du Daily Mail a également révélé qu’en raison de cette préoccupation croissante, il existe un soutien bipartite en faveur d’une réglementation accrue de l’IA.
Bien que le soutien le plus fort soit venu des personnes interrogées s’identifiant comme républicains, 58 % de tous les électeurs ont déclaré qu’il devrait y avoir « un peu plus » ou « beaucoup plus » de contrôle gouvernemental sur l’intelligence artificielle.
À mesure que l’intelligence artificielle prend une place de plus en plus importante dans la vie quotidienne, les centres de données occupent de plus en plus d’espace, la puissante épine dorsale de l’intelligence artificielle qui connecte des milliers d’ordinateurs, de serveurs et de GPU dans de gigantesques installations.
Des milliers de ces installations à travers les États-Unis fournissent la puissance de calcul, le stockage et le refroidissement massifs nécessaires pour former, exécuter et stocker de grands modèles d’IA, tels que ChatGPT d’OpenAI, Claude d’Anthropic et kAI Grok.
Cependant, ces installations géantes ont été accusées de rejeter des polluants dangereux qui peuvent provoquer de l’asthme, des cancers et même la mort dans les communautés où elles vivent.
C’est peut-être la raison pour laquelle plus d’un tiers des personnes interrogées (35 %) ont déclaré qu’il y avait trop de centres de données en Amérique.
Sur la photo : centre de données Amazon Web Services connu sous le nom de US East 1 à Ashburn, en Virginie.
Quant aux informations provenant de ces puissants chatbots IA, les Américains étaient également préoccupés.
Trente-deux pour cent des votants ont classé l’inexactitude des informations provenant des chatbots comme l’une de leurs plus grandes préoccupations.
Récemment, deux études du Massachusetts Institute of Technology et de Stanford ont révélé que les assistants IA tels que ChatGPT, Claude et Gemini de Google donnent régulièrement des réponses trop agréables, entraînant les utilisateurs dans une « spirale d’illusion ».
Plus précisément, les chercheurs ont découvert que lorsque les gens posaient des questions ou décrivaient des situations dans lesquelles leurs croyances ou leurs actions étaient inexactes, nuisibles, trompeuses ou contraires à l’éthique, les réponses de l’IA étaient toujours 49 % plus susceptibles d’être d’accord avec l’utilisateur et d’encourager ses idées fausses comme étant l’attitude correcte par rapport aux réponses de vraies personnes.
Parmi les autres sujets que les Américains considèrent comme les plus préoccupants figurent la surveillance et le contrôle utilisant l’intelligence artificielle (28 %) et le manque de transparence de la part des entreprises d’IA (19 %).
Alors que peu d’Américains placent parmi leurs principales préoccupations la crainte que l’IA influence leurs convictions politiques ou ait un impact sur l’éducation, il n’est pas surprenant que seulement 4 % des personnes interrogées déclarent obtenir leurs informations grâce aux résumés d’IA en ligne.
Plus d’une personne sur trois (35%) déclare encore consulter les journaux télévisés locaux pour s’informer sur l’actualité. Vingt pour cent supplémentaires se sont tournés vers les réseaux sociaux et 13 pour cent font confiance aux sites d’information.
Malgré ces résultats, 31 % des électeurs ont déclaré au Daily Mail que l’IA avait affaibli leur confiance dans ce qu’ils voient quotidiennement dans l’actualité.