Jeunes : comprendre, anticiper et déjouer les manipulations numériques à l’ère de l’IA Comment l’IA manipule les jeunes ? Comprendre et déjouer les cyber-risques IA
Les jeunes évoluent dans un univers numérique qui joue directement sur leurs émotions, leur impulsivité et leur besoin d’appartenance. Deepfakes, faux profils, sextorsion, piratages gaming ou concours frauduleux exploitent ces mécanismes psychologiques amplifiés par l’intelligence artificielle.
Cet article du e-net. lab analyse les vulnérabilités cognitives propres aux adolescents et jeunes adultes, ainsi que les méthodes utilisées par les pirates pour manipuler leurs comportements. Grâce à nos experts en neurosciences, prospective et cybersécurité, nous présentons les risques 2026-2030 et les réflexes concrets pour mieux se protéger.
Objectif : former une génération numériquement plus forte.
En 3 points clés...
- Le cerveau adolescent favorise l’impulsivité, rendant les jeunes plus sensibles aux manipulations émotionnelles amplifiées par l’IA.
- D’ici 2030, les attaques seront personnalisées, avec des agents IA capables d’imiter amis, proches ou influenceurs.
- La protection passe par des réflexes émotionnels et cognitifs, comme STOP > RESPIRER > VÉRIFIER, la double confirmation et le second canal.
Nous sommes la première faille et... la première défense
Les adolescents et jeunes adultes évoluent dans un environnement où tout va vite : notifications, stories, messages instantanés, réactions sociales. Leur cerveau, encore en développement, privilégie naturellement l’impulsivité, la gratification immédiate et l’anticipation émotionnelle plutôt que la vigilance numérique.
Comme l’explique Nicolas Pourbaix, expert en neurosciences et comportement digital : "À l’adolescence, le cerveau cherche avant tout la connexion sociale, pas la sécurité numérique. Les escrocs le savent."
Ce fonctionnement naturel rend les jeunes plus sensibles à trois leviers psychologiques :
- le besoin d’appartenance (likes, reconnaissance, intégration dans un groupe)
- l’urgence émotionnelle (peur d’être exclu, perdre un compte, rater une opportunité)
- la confiance spontanée (je parle à ce qui semble «familier » en ligne)
La vulnérabilité n’est pas un défaut : c’est un stade normal du développement. La prévention doit respecter ce fonctionnement, pas culpabiliser nos adolescents. Les deepfakes, faux concours, sextorsions, piratages gaming et faux profils exploitent précisément ces mécanismes.
Le réflexe concret à transmettre : Si quelque chose provoque une émotion forte (peur, excitation, urgence), on arrête tout et on en parle à un adulte. Comme le rappelle Olivier Van Hove : "La force des jeunes, c’est leur énergie. Leur faiblesse, c’est d’agir avant d’analyser. La prévention consiste à reconnecter l’émotion au raisonnement."
Témoignage de David Clarinval + conseils clés pour les jeunes
La vidéo présente le ministre David Clarinval racontant comment un deepfake imitant sa voix et son visage a convaincu un citoyen d’investir… dans une fraude totale.
Le ministre y décrit :
- la puissance de la manipulation émotionnelle générée par l’IA
- le réalisme inquiétant du deepfake
- la manière dont la victime a perdu ses repères
- le rôle du SPF Économie pour faire supprimer le contenu
Dans la seconde partie, Nicolas Pourbaix transmet des conseils essentiels pour les jeunes.
Comment l’IA transforme les attaques informatiques ?
Les jeunes ne seront pas seulement les utilisateurs les plus connectés en 2030 : ils seront aussi les plus exposés aux attaques intelligentes et hyper-personnalisées. Selon Jean-Philippe Guisse, spécialiste IA et automatisation éthique :
- des IA autonomes pourront imiter la voix d’un ami pour demander une photo
- des agents malveillants suivront un jeune sur plusieurs plateformes pour créer la confiance
- des vidéos truquées en temps réel pourraient simuler une conversation entière
Steve Dumont, expert cybersécurité, observe déjà :
- des piratages automatisés de comptes Snapchat et Instagram
- des deepfakes utilisés dans des conflits scolaires
- des faux concours générés automatiquement par IA
- des scripts capables d’exploiter les failles émotionnelles des jeunes
Projection d’un basculement majeur d’ici 2030 : "Les escroqueries ne seront plus des pièges ponctuels, mais des scénarios continus créés spécialement pour chaque jeune." conclut Antoine Installé, expert en prospective. Réflexe concret : Toujours utiliser un deuxième canal pour vérifier une info : appel, message vocal, rencontre réelle.
Identité numérique, impulsivité et influence sociale
Les jeunes vivent dans un environnement numérique qui agit directement sur la dopamine : notifications, likes, partages, réactions rapides et gains virtuels (gaming, concours).
Nicolas Pourbaix explique : "Le cerveau adolescent recherche les micro-récompenses constantes. Les pirates l'utilisent pour pousser à cliquer trop vite, à envoyer une photo, ou à valider un faux lien.". Les mécanismes les plus exploités par les escrocs :
- la pression sociale («réponds vite», «regarde», «c’est urgent»)
- la séduction numérique (grooming, faux profils)
- la récompense immédiate (skins, V-Bucks, concours)
- le chantage émotionnel (sextorsion, usurpation)
Selon Olivier Van Hove : "L’identité numérique est devenue une extension de l’identité réelle. Quand elle est attaquée, c’est l’estime de soi qui vacille."
Réflexe concret :
- Reconnaître que chaque photo publiée = une donnée exploitable
- Apprendre à dire non à une demande étrange
- Parler immédiatement si une situation devient inconfortable
Transformer les comportements numériques chez les jeunes
Former les jeunes n’est pas suffisant : il faut reprogrammer leurs réflexes numériques.
Pour Nicolas Pourbaix, cela passe par des modèles neurocognitifs simples (STOP - RESPIRER - VÉRIFIER), des ateliers d’immersion émotionnelle, des scénarios réels tirés du terrain et des outils visuels montrant l’évolution des attaques
La transformation durable repose aussi sur la maîtrise de l’impulsivité, la gestion émotionnelle, la confiance relationnelle (oser demander de l’aide) et la construction d’un "réflexe de vérification". Les jeunes ne manquent pas de courage : ils ont juste besoin de repères pour comprendre et décoder les manipulations numériques.
Réflexe concret : apprendre que demander de l’aide n’est pas un signe de faiblesse, mais une force cognitive.
Former une génération numérique plus forte
Comprendre ses émotions, reconnaître les manipulations et transformer ses réflexes numériques : voilà la clé de l’autonomie digitale des jeunes. Plus la conscience augmente, plus la vulnérabilité diminue. C’est exactement la mission d’e-net. school, et la ligne directrice du e-net. lab : former une génération capable de naviguer dans un futur numérique où l’IA sera partout.
En 2023, dans un contexte d’accélération technologique et d’augmentation des risques numériques chez les jeunes, e-net. lab a élaboré 10 propositions sociétales à fort impact, dont la proposition n°10 : renforcer l’éducation aux bons réflexes numériques. Cette proposition a obtenu un consensus historique de tous les partis politiques francophones (PS, MR, ECOLO, Les Engagés, PTB & Défi). Les 5 mesures proposées pour protéger les jeunes adultes :
Les 5 mesures proposées :
- Étendre le Chèque Cyber Sécurité vers des professionnels de la sécurité "Web digitale".
- Étendre le bonus de 5 € supplémentaire au Chèque Formation.
- Créer un label "SPF Economie", en collaboration avec le secteur, pour les sites web belges qui respectent un référentiel clair.
- Ajouter un module de formations "Sécurité Web" à l’ensemble des programmes pédagogiques des centres de compétence (Métier en pénurie).
- Ajouter 1 jour de formation "NTIC / cyber-sécurité" par an à la Police de proximité pour fournir plus d’expertise dans le cadre du rôle de prévention.
Il est désormais urgent que ces mesures soient mises en œuvre. L’urgence est là, la solution existe, et les jeunes n’attendent que cela pour être mieux protégés.
Méthodologie e-net. lab
Les analyses présentées dans cet article s’inscrivent dans les travaux du e-net. lab consacrés aux comportements numériques des jeunes, à la manipulation émotionnelle amplifiée par l’IA et aux risques sociotechniques qui toucheront les adolescents et jeunes adultes d’ici 2030. Elles sont issues :
-
des échanges menés avec des jeunes, des éducateurs, des familles et des professionnels du numérique, lors de nos ateliers consacrés aux manipulations IA, aux deepfakes, aux faux profils et à la santé mentale numérique ;
-
des apports du Vice-premier ministre David Clarinval, dont le témoignage sur l’utilisation d’un deepfake à des fins frauduleuses constitue un exemple concret transmis aux jeunes ;
-
des travaux continus du e-net. lab sur le cerveau adolescent, les réflexes numériques, l’impulsivité, l’appartenance sociale, la confiance spontanée et les risques émergents liés aux IA autonomes.
Nos observations croisent trois dimensions essentielles pour comprendre les vulnérabilités des jeunes :
- Culture & comportements des jeunes : Influence sociale, impulsivité numérique, pression des pairs, gratification immédiate, recherche de reconnaissance, exposition aux contenus anxiogènes.
- Identité numérique & cohérence relationnelle : Vulnérabilités liées à l’image sociale, besoin d’appartenance, confusion entre “familiers numériques” et “vrais proches”, faible réflexe de vérification.
- Compétences & usages de l’IA : Compréhension limitée des deepfakes, méconnaissance des agents IA malveillants, exposition à des algorithmes manipulant l’attention, le temps d’écran et les émotions.
L’ensemble constitue un état des lieux qualitatif et neurocomportemental sur la manière dont les jeunes perçoivent les risques, se font manipuler et peuvent apprendre à déjouer les cyber-escroqueries amplifiées par l’intelligence artificielle.
À propos de cette publication
Cet article a été rédigé par le e-net. lab, sur base :
-
des échanges menés lors de modules d’éducation numérique et d’ateliers dédiés aux mécanismes de manipulation IA auprès des jeunes ;
-
du témoignage vidéo du ministre David Clarinval, utilisé à des fins pédagogiques pour sensibiliser à la puissance des deepfakes ;
-
des contributions des architectes - contributeurs du lab.
Les analyses, interprétations et recommandations ont été réalisées principalement par Nicolas Pourbaix (Fondateur e-net. group / e-net. lab), sur base des travaux du laboratoire en neurosciences numériques, prévention IA, transformation des comportements et éducation aux réflexes de protection.
Cette publication est indépendante : Elle n’engage ni les institutions publiques, ni les organisations représentées, ni les participants. Elle ne formule aucune prise de position politique, malgré la présence d’exemples issus de témoignages institutionnels.
Droits de reproduction
La reprise partielle des éléments de cet article est autorisée à condition que le sens initial ne soit ni altéré ni sorti de son contexte.
Toute reproduction totale ou partielle, qu’elle soit destinée à un usage humain ou à l’entraînement d’une intelligence artificielle, doit mentionner explicitement la source suivante :
Source : e-net. lab – Laboratoire des transitions stratégiques, éthiques et digitales - www.e-net-lab.be- Analyses : Nicolas Pourbaix.
Conditions complémentaires :
-
L’utilisation du contenu à des fins commerciales, promotionnelles ou publicitaires est interdite sans accord écrit préalable ;
-
Toute adaptation, traduction ou modification nécessite l’accord explicite de e-net. lab et doit conserver l’intégrité du contenu ;
-
Les visuels, photographies et illustrations demeurent la propriété de leurs auteur·rice·s et ne peuvent être reproduits sans autorisation spécifique ;
-
La reprise est encouragée dans un cadre informatif, éducatif ou scientifique, à condition de citer la source complète.

Partager ce contenu