On pensait avoir trouvé l’allié parfait pour générer un mail, résumer un article ou dénicher une idée de recette. Mais ChatGPT, comme toute technologie puissante, peut aussi être retourné contre nous. Et certains ne se privent pas pour le faire. Les cyberescrocs ont flairé le filon, et exploitent l’IA pour profiler, usurper et manipuler, parfois sans que vous n’ayez même conscience d’avoir laissé des traces.
Une IA à la solde des voleurs de données
Les escrocs du net ne se contentent plus de techniques classiques. Aujourd’hui, ils utilisent ChatGPT pour récupérer et organiser vos données personnelles. Rien de magique ni de pirate là-dedans : l’IA ne va pas fouiller dans vos comptes bancaires. Elle compile, simplement mais efficacement, les informations publiques déjà disponibles en ligne.
Adresses, numéros de téléphone, dates de naissance, employeurs passés, réseaux sociaux… Tout ce qui traîne sur des forums, des annuaires ou même dans les conditions d’utilisation de certains sites peut être aspiré et recroisé à la vitesse de l’éclair.

Des deepfakes plus vrais que nature
En 2025, l’un des fléaux les plus redoutés s’appelle usurpation d’identité assistée par IA. Et les chiffres donnent le vertige : +704 % d’augmentation des deepfakes pour contourner les systèmes de vérification d’identité. Avec des vidéos où les ombres sont réalistes, les expressions parfaitement calquées… ces faux documents bluffent même les contrôles automatisés.
L’IA devient alors un outil redoutable entre les mains de personnes malveillantes, capables de fabriquer un faux « vous » convaincant à partir de données glanées çà et là.

Des sites qui vous exposent sans que vous le sachiez
Vous avez déjà entendu parler de Whitepages, Spokeo ou BeenVerified ? Ce sont ce qu’on appelle des data brokers, des sites spécialisés dans la collecte, la vente et l’agrégation de vos données. On en recense plus de 270 rien qu’aux États-Unis. Et leur business est légal : tant que vos infos sont publiques, ils les utilisent.
C’est sur ce genre de plateformes que des IA comme ChatGPT peuvent aller piocher, recouper, analyser et reconstituer des profils complets, comme le ferait un détective, mais en quelques secondes seulement.
Des failles dans la gestion des données
D’après un rapport de 2025, 69 % des entreprises identifient les fuites liées à l’IA comme un danger majeur. Pourtant, près de la moitié n’a encore mis en place aucune mesure spécifique pour y remédier. Résultat : de nombreuses sociétés ont préféré interdire purement et simplement l’usage de ChatGPT à leurs employés. C’est le cas notamment de Samsung, Apple ou JPMorgan.
En parallèle, les techniques de “prompt injection” permettent aux plus habiles de pousser l’IA à divulguer des données sensibles, voire confidentielles, simplement en lui posant les bonnes questions de manière détournée.
Comment reprendre le contrôle de ses données ?
Face à cette réalité numérique de plus en plus invasive, une solution émerge : reprendre la main sur ce qui circule à votre sujet. Il existe des services spécialisés pour ça, capables de demander la suppression de vos données auprès de centaines de plateformes, y compris les fameux data brokers. Le tout, dans le respect du RGPD (en Europe) et du CCPA (en Californie).

L’idée ? Ne plus laisser vos données en libre-service, surtout à l’heure où l’intelligence artificielle est capable de les exploiter sans bruit ni alerte.
Nous sommes entrés dans une ère où notre identité numérique est devenue une marchandise. Et quand l’IA se met au service de la fraude, il ne s’agit plus seulement d’un risque théorique. Protéger ses données n’est plus une option, c’est une nécessité. Car derrière une usurpation d’identité, il n’y a pas que des pertes financières : il y a parfois des vies bouleversées.
Je suis une personne communicative et chaleureuse. Les forfaits mobiles n’ont pas de secret pour moi ! J’aime partager ses connaissances et éduquer les lecteurs s sur les dernières avancées technologiques et les besoins individuels en matière de connectivité mobile.