Quand vos prompts nourrissent les arnaques : l’IA, nouvel eldorado des scammeurs
Derrière la fluidité des conversations avec les modèles d’IA (ChatGPT, Gemini, Claude, Grok…), se
cache un risque majeur : la réexploitation de vos données personnelles. Les escrocs n’ont plus besoin de
pirater vos boîtes mail : une simple question bien formulée suffit à agréger, relier et exploiter vos traces
numériques.
Menace
Exploitation des prompts et des données publiques par les escrocs pour créer du phishing, de l’usurpation d’identité ou alimenter le marché noir des données.
Mécanisme
Les LLM agrègent des informations éparpillées (forums, blogs, réseaux sociaux, fuites de données) et les rendent lisibles et utilisables.
Exemple
Phishing hyper-ciblé, recomposition d’identités, revente à des data brokers peu scrupuleux.
Facteur aggravant
Conservation et partage des prompts par les fournisseurs d’IA, absence de mécanisme clair de retrait des données du training.
Comment l’IA amplifie le problème
Les grands modèles de langage sont entraînés sur des milliards de pages publiques, qui contiennent
souvent des données personnelles. Lorsqu’un utilisateur interagit avec ces IA, les prompts peuvent être
enregistrés et utilisés pour affiner les modèles. Selon une étude d’Incogni (2025), la majorité des IA
grand public collectent et partagent les données des utilisateurs avec des filiales ou partenaires, sans
réel moyen de retrait a posteriori. Une fois publiées ou aspirées, vos informations deviennent impossibles
à remettre en arrière : l’effet dentifrice hors du tube.
Conséquences pour les utilisateurs
Les informations agrégées par IA permettent de :
– Construire des campagnes de phishing ultra ciblées.
– Usurper l’identité numérique de victimes.
– Revendre des données enrichies à des acteurs tiers.
Le passage d’une masse d’informations disparates à un profil unifié démultiplie les capacités des
escrocs.
Recommandations
– Éviter d’inclure des informations personnelles dans vos prompts (emails, numéros, adresses).
– Privilégier les versions d’IA offrant des garanties explicites sur la confidentialité (opt-out
d’entraînement).
– Mettre en place des alertes (Google Alerts, haveibeenpwned) pour surveiller l’exposition de ses
données.
– Sensibiliser les équipes aux risques liés à la saisie d’informations sensibles dans des services cloud
externes.
Conclusion
L’intelligence artificielle démocratise l’accès à des capacités de corrélation et d’agrégation de données
jadis réservées aux services de renseignement. Elle devient de fait un outil puissant pour les escrocs et
les acteurs malveillants. La vigilance des utilisateurs et la mise en place de garde-fous réglementaires
seront indispensables pour éviter que vos prompts ne deviennent le carburant des prochaines arnaques
massives.
Sources
Incogni (2025) ; Mashable ; enquêtes sur la collecte et le partage des données par les fournisseurs d’IA
grand public.
Besoin d’un accompagnement pour encadrer l’usage de l’IA en entreprise ?
Nos experts vous aident à sécuriser et maîtriser vos outils d’IA : audit, conformité, gouvernance, évaluation des risques…Faites le point dès maintenant sur vos usages.
