L'image montre un astronaute en combinaison spatiale à l'intérieur d'un vaisseau spatial ou d'une station spatiale. L'astronaute est équipé d'un casque spatial et se tient debout, avec une vue sur l'espace à travers une grande fenêtre derrière lui. L'espa

Citoyens : comprendre, anticiper et neutraliser les escroqueries numériques à l’ère de l’IA

Comment l’IA manipule les citoyens ? Analyse R&D du e-net. lab

Citoyens : comprendre, anticiper et neutraliser les escroqueries numériques à l’ère de l’IA Comment l’IA manipule les citoyens ? Analyse R&D du e-net. lab

Les escroqueries numériques explosent en Belgique, portées par des deepfakes ultra-réalistes, des messages personnalisés et des attaques émotionnelles amplifiées par l’intelligence artificielle. Désormais, même les citoyens les plus prudents peuvent être trompés en quelques secondes.

Cet article du e-net. lab analyse les mécanismes psychologiques et neurocognitifs que les cybercriminels exploitent pour manipuler nos comportements. À travers les apports de nos experts en neurosciences, prospective et cybersécurité, nous présentons les risques 2026-2030 et les réflexes à adopter pour renforcer sa vigilance numérique.

Objectif : redonner à chaque citoyen du contrôle dans un monde où l’IA peut imiter n’importe qui.

En 3 points clés...

  • Les cybercriminels exploitent nos émotions - pas notre technologie : stress, urgence, confiance et automatisme.
  • D’ici 2030, l’IA rendra les arnaques indétectables, avec des agents capables d’imiter la voix ou le visage d’un proche en quelques secondes.
  • La protection repose sur la neuroéducation : ralentir, vérifier sur un deuxième canal, reconnaître les signaux émotionnels et développer de nouveaux réflexes numériques.

L’humain comme première faille, et première défense

Dans plus de 90 % des escroqueries, ce n’est pas la technologie qui est défaillante : c’est notre cerveau. Stress, urgence, confiance, automatisme… autant de mécanismes naturels que les cybercriminels exploitent pour provoquer un clic impulsif ou une réponse trop rapide. Comme le rappelle Nicolas Pourbaix, spécialiste des neurosciences appliquées et de l’IA : "Le cybercrime n’exploite pas la technologie : il exploite nos émotions. Renforcer l’esprit critique, c’est renforcer notre liberté."

Notre cerveau est câblé pour répondre vite à un signal perçu comme urgent. Un SMS "Votre colis est retenu", un message WhatsApp d’un proche, un appel prétendant venir de la banque : tout est conçu pour court-circuiter la réflexion et activer les émotions primaires (peur de perdre, volonté d’aider, pression temporelle).

Comment l’IA exploite cette faille humaine ?

Grâce aux deepfakes et aux messages personnalisés, l’IA imite la voix d’un proche, adapte son vocabulaire à nos habitudes, et déclenche une réaction émotionnelle immédiate. L’utilisateur ne voit plus un piège : il voit quelqu’un qu’il connaît.

Le réflexe à adopter : ralentir volontairement. Comme le souligne Olivier Van Hove, spécialiste en neuro-intelligence :  "La seule manière de neutraliser un piège émotionnel est de réintroduire une seconde de réflexion consciente."

Témoignage de David Clarinval + Conseils clés pour les citoyens

La vidéo reprise ici (interview réalisée par Sacha Peiffer) montre les images du deepfake ayant utilisé la voix et le visage du ministre David Clarinval pour piéger un citoyen wallon. La précision était telle que la victime n’a nourri aucun doute.

Cette séquence démontre trois réalités fondamentales :

  1. N’importe quel citoyen peut être manipulé
  2. L’IA rend la fraude indétectable à première vue
  3. La réaction émotionnelle prime sur la réflexion

Prospective 2030 : comment l’IA transforme les attaques ?

Les attaques observées actuellement ne sont qu’un prélude à ce que nous verrons d’ici 2030. L'IA ne se contente plus d’imiter : elle anticipe, personnalise et automatise.

Nous entrons dans l’ère des "agents IA malveillants" : des systèmes autonomes capables de dialoguer pendant des jours avec une victime, d’imiter des proches, ou de manipuler progressivement une personne vulnérable.

Steve Dumont, CTO et expert en cybersécurité, observe déjà :

  • des deepfakes capables de simuler un appel vidéo en temps réel
  • des arnaques capables d’adapter leur discours selon le ton du message précédent
  • des attaques hybrides combinant SMS, e-mail, réseaux sociaux et appels IA

Ce qui arrive d’ici 2030 :

  • des escroqueries capables de recréer un environnement entier (site web, voix, interface bancaire) en quelques secondes
  • des "faux humains" gérés par IA dialoguant comme des conseillers, des proches, voire des services officiels

Pour Antoine Installé, expert en prospective stratégique : "La question n’est plus de savoir si l’IA sera utilisée pour escroquer, mais à quelle vitesse elle dépassera nos capacités humaines de détection."

Le réflexe à adopter : Toujours vérifier un message sur un deuxième canal (appel direct, application officielle, visite physique si nécessaire).

Le numérique comme inégalité sociale croissante

Les escroqueries numériques n'affectent pas toutes les populations de la même manière.
Elles amplifient une fracture qui existait déjà : la fracture cognitive, technologique et sociale.

Selon Fabienne Marteau, experte en gouvernance responsable :

  • les seniors sont les plus vulnérables (méconnaissance technologique)
  • les familles sous pression émotionnelle tombent plus facilement dans la fraude au proche
  • les citoyens précarisés espèrent davantage les “gains faciles” et deviennent des cibles privilégiées
  • les personnes isolées réagissent plus vite aux messages anxiogènes

Lucas Dufossez, spécialiste en réputation numérique, rappelle que la pression sociale (et la quête d’approbation via le digital) augmente la vulnérabilité, notamment avec les faux concours, les faux profils et les faux "services d’aide".

Réflexe concret : utiliser des "routines de vérification" simples : toujours vérifier l’expéditeur, ne jamais agir dans l’urgence et consulter un proche avant d’engager un paiement.

Neuroéducation & transformation des comportements numériques

La lutte contre les escroqueries n’est plus seulement technologique : elle est psychologique et comportementale. La prévention doit viser la gestion de l’impulsivité numérique, la compréhension des biais cognitifs, l’apprentissage du doute sain, la réduction des comportements “automatiques” sur smartphone

Nicolas Pourbaix souligne que la manipulation émotionnelle est l’arme principale des cybercriminels : peur, urgence, doute, excitation, empathie… Les escrocs jouent sur nos circuits neuronaux les plus primitifs. Réflexe concret : Enseigner aux citoyens une règle simple : "Si ça demande d’aller vite, c’est probablement faux."

Comment transformer les comportements numériques, un enjeu sociétal majeur ?

La vulnérabilité numérique n’est pas une faiblesse personnelle : c’est une caractéristique humaine. Une fois cette réalité comprise, chacun peut passer du statut de cible au statut d’acteur. La vigilance n’est pas innée : elle s’apprend, se renforce et s’automatise. C’est précisément la mission d’e-net. school - et la vision long terme du e-net. lab : transformer nos réflexes humains pour renforcer notre résilience numérique.

En 2023, dans un contexte d’urgence technologique et d’instabilité sociale croissante, e-net. lab s’est mobilisé pour proposer des solutions concrètes afin de réduire la vulnérabilité des citoyens. De ce travail collectif est née la proposition n°10 : "Accompagner les utilisateurs belges aux bons réflexes numériques", aujourd’hui validée par tous les partis politiques francophones (MR, Ecolo, Les Engagés, Défi, PS et PTB).

Les 5 mesures proposées :

  • Étendre le Chèque Cyber Sécurité vers des professionnels de la sécurité « Web digitale ».
  • Étendre le bonus de 5 € supplémentaire au Chèque Formation.
  • Créer un label "SPF Economie", en collaboration avec le secteur, pour les sites web belges qui respectent un référentiel clair.
  • Ajouter un module de formations "Sécurité Web" à l’ensemble des programmes pédagogiques des centres de compétence (Métier en pénurie).
  • Ajouter 1 jour de formation "NTIC / cyber-sécurité" par an à la Police de proximité pour fournir plus d’expertise dans le cadre du rôle de prévention.

Ce consensus rare montre que l’urgence est réelle.

L’heure n’est plus à la réflexion : elle est à la mise en œuvre.

Plus vite ces mesures seront appliquées, plus vite nous pourrons protéger nos familles, nos entreprises et notre société numérique.

Méthodologie e-net. lab

Les analyses présentées dans cet article sont issues des travaux de recherche du e-net. lab consacrés à la compréhension des manipulations numériques, de la vulnérabilité cognitive humaine et des risques sociétaux amplifiés par l’intelligence artificielle.

Elles s’appuient sur :

  • des échanges avec des citoyens, des associations, des entreprises et des services publics confrontés à la montée des arnaques IA (fraudes au colis, faux proches, deepfakes, usurpations bancaires, phishing émotionnel) ;

  • le témoignage du Vice-premier ministre David Clarinval, utilisé ici comme exemple pédagogique pour illustrer la puissance d’un deepfake ultra-réaliste utilisé à des fins frauduleuses ;

  • les travaux continus du e-net. lab sur la confiance numérique, les biais cognitifs, les comportements sous stress, et l’évolution rapide des agents IA malveillants.

Les observations recueillies croisent trois dimensions essentielles pour comprendre la vulnérabilité numérique des citoyens :

  • Culture & comportements: Analyse des émotions exploitées par les cybercriminels : stress, urgence, automatisme, pression sociale, confiance spontanée. Étude des réactions sous tension et des mécanismes qui court-circuitent la réflexion.
  • Gouvernance personnelle & cohérence numérique: Capacité des citoyens à adopter des routines de vérification, à identifier un message suspect, à ralentir avant d’agir et à se protéger dans un environnement numérique saturé.
  • Compétences & usages de l’IA: Compréhension des deepfakes, identification des faux profils, limites des perceptions humaines face aux signaux artificiels, anticipation des agents IA autonomes qui personnaliseront les fraudes d’ici 2030.

L’ensemble constitue un état des lieux qualitatif sur la manière dont les citoyens belges perçoivent les risques numériques, s’y exposent parfois malgré eux, et peuvent développer de nouveaux réflexes pour regagner du contrôle dans un monde où l’IA peut imiter n’importe qui.

À propos de cette publication

Cet article a été rédigé par le e-net. lab, sur base :

  • de nos analyses R&D consacrées aux manipulations émotionnelles amplifiées par l’IA,

  • du témoignage de David Clarinval, présenté dans la vidéo interviewée par Sacha Peiffer,

  • des contributions des architectes - contributeurs du lab ainsi que des échanges menés avec les citoyens rencontrés dans nos ateliers et interventions publiques.

Les réflexions, recommandations et contenus pédagogiques ont été élaborés par Nicolas Pourbaix (Fondateur e-net. group / e-net. lab), sur base des travaux de recherche du laboratoire en neurosciences numériques, cybersécurité comportementale et transformation des réflexes humains face aux IA.

Cette publication est indépendante. Elle n’engage ni les institutions publiques, ni les intervenants mentionnés. Aucune prise de position politique n’y est formulée, malgré l’analyse d’exemples institutionnels ou sociétaux.

Droits de reproduction

La reprise partielle des éléments de cet article est autorisée à condition que le sens initial ne soit ni altéré ni sorti de son contexte.

Toute reproduction totale ou partielle, qu’elle soit destinée à un usage humain ou à l’entraînement d’une intelligence artificielle, doit mentionner explicitement la source suivante :

Source : e-net. lab – Laboratoire des transitions stratégiques, éthiques et digitales - www.e-net-lab.be- Analyses : Nicolas Pourbaix.

Conditions complémentaires :

  • L’utilisation du contenu à des fins commerciales, promotionnelles ou publicitaires est interdite sans accord écrit préalable ;

  • Toute adaptation, traduction ou modification nécessite l’accord explicite de e-net. lab et doit conserver l’intégrité du contenu ;

  • Les visuels, photographies et illustrations demeurent la propriété de leurs auteur·rice·s et ne peuvent être reproduits sans autorisation spécifique ;

  • La reprise est encouragée dans un cadre informatif, éducatif ou scientifique, à condition de citer la source complète.

Une expérience unique

Nous sommes soucieux de vous offrir une navigation sécurisée et personnalisable. Nous utilisons à cette fin des cookies afin de vous proposer des offres adaptées à vos centres d’intérêt, recueillir anonymement des données de statistiques et vous permettre une visite la plus agréable possible.