L'image montre un astronaute en combinaison spatiale à l'intérieur d'un vaisseau spatial ou d'une station spatiale. L'astronaute est équipé d'un casque spatial et se tient debout, avec une vue sur l'espace à travers une grande fenêtre derrière lui. L'espa

Compétences et inégalités: L’IA creuse-t-elle l’écart ?

Pourquoi l’IA peut creuser les différences et comment organiser une montée en compétences équitable et durable ?

Compétences et inégalités: L’IA creuse-t-elle l’écart ? Pourquoi l’IA peut creuser les différences et comment organiser une montée en compétences équitable et durable ?

Depuis l’essor des intelligences artificielles génératives, une inquiétude revient régulièrement dans les débats publics, économiques et éducatifs : l’IA va-t-elle creuser les inégalités entre individus et organisations ? Certains y voient une fracture inévitable entre une minorité "augmentée" et une majorité fragilisée.

À travers ses travaux de recherche-action, ses rencontres publiques et ses expérimentations de terrain, le e-net. lab observe une réalité plus nuancée : le risque est réel, mais il n’est ni automatique ni irréversible.  L’IA amplifie plus naturellement les plus érudits (intelligence et savoirs), mais il est essentiel de comprendre qu’elle va surtout amplifier les potentiels de tous ceux qui ont appris à l’utiliser avec méthode, discernement et cadre.

Cet article propose un modèle de montée en compétences en trois niveaux, destiné aux entreprises, aux institutions et à l’enseignement, afin de réduire les écarts plutôt que de les subir.

Le risque réel : une minorité augmentée, une majorité fragilisée

Sur le terrain, le e-net. lab observe un phénomène clair : l’IA crée rapidement des écarts de valeur entre ceux qui savent l’utiliser de manière structurée et ceux qui y recourent de façon ponctuelle, intuitive ou non encadrée.

Certains collaborateurs, enseignants ou décideurs parviennent à clarifier leurs intentions, questionner efficacement l’IA, vérifier les réponses, et intégrer l’outil dans leurs méthodes de travail.

D’autres, à l’inverse, se sentent dépassés, hésitent à l’utiliser ou en font un usage superficiel, générant frustration, erreurs ou dépendance. Le risque n’est donc pas une exclusion brutale, mais un décrochage progressif, souvent invisible au départ.

Pourquoi l’IA amplifie les écarts existants ?

L’IA ne redistribue pas les cartes à zéro. Elle accélère ce qui est déjà là à savoir: la méthode, la clarté, la capacité d’analyse, l’autonomie intellectuelle.

À l’inverse, elle pénalise l’improvisation, l’absence de cadre, le manque de formation et la confusion entre usage et compétence.

Autrement dit, l’IA amplifie les inégalités de compétences préexistantes, qu’elles soient individuelles, organisationnelles ou éducatives. Sans stratégie explicite, la technologie devient un amplificateur des écarts.

Discussion entre Sacha et Denis Mathen sur l’IA et l'amplification les écarts existants

Le modèle e-net. lab : une montée en compétences en trois niveaux

Pour éviter une fracture durable, le e-net. lab propose un modèle simple et structurant, fondé sur un principe clé : tout le monde n’a pas besoin d’avoir le même niveau de maîtrise, mais chacun doit atteindre un socle minimal. Ce modèle fait partie du cadre de pilotage humain et stratégique à l’ère de l’intelligence artificielle nommé e-net.® H-IA Pilot. Voici un aperçu:

Niveau 1 : L’utilisateur lucide (socle universel)

Ce premier niveau constitue la base indispensable pour tous.

Objectif : éviter les erreurs, la dépendance cognitive et les usages à risque.

Compétences clés :

  • formuler une demande simple et claire à l’IA,

  • comprendre les limites et les biais des réponses générées,

  • vérifier une information avant usage ou diffusion,

  • respecter la confidentialité et les données sensibles,

  • savoir quand ne pas utiliser l’IA.

Public cible : 100 % des collaborateurs, élèves, enseignants ou agents.

Ce niveau n’est pas optionnel. Sans lui, l’IA devient un facteur de fragilisation.

Réunion E-net avec des collaborateurs, élèves, enseignants ou agents

Niveau 2 : Le professionnel augmenté (niveau massif)

Le second niveau concerne ceux dont l’IA peut réellement transformer la pratique professionnelle.

Objectif : créer de la valeur mesurable et durable.

Compétences clés :

  • intégrer l’IA dans des workflows métiers,

  • améliorer la qualité des livrables,

  • réduire le temps perdu et les erreurs répétitives,

  • collaborer efficacement avec l’IA sans surcharge cognitive,

  • mesurer ce que l’IA apporte réellement (et ce qu’elle n’apporte pas).

Public cible : une large majorité des métiers clés.

C’est à ce niveau que l’IA devient un véritable levier de performance, à condition d’être encadrée.

Niveau 3 : Le pilote (niveau rare mais structurant)

Le troisième niveau ne concerne qu’un nombre limité de personnes, mais il est stratégique.

Objectif : sécuriser, orienter et pérenniser les usages.

Compétences clés :

  • sélectionner et prioriser les cas d’usage,

  • évaluer les risques juridiques, éthiques et cognitifs,

  • mettre en place une gouvernance minimale,

  • mesurer les impacts humains et le retour sur investissement,

  • arbitrer quand un usage doit être stoppé ou révisé.

Public cible : directions, référents IA, enseignants clés, responsables pédagogiques.

Sans ce niveau, les deux premiers restent fragiles.

La vraie stratégie : universaliser, massifier, structurer

Le piège serait de viser un niveau "expert" pour tous, ou au contraire de concentrer la compétence sur quelques profils isolés.

La stratégie la plus robuste repose sur un équilibre clair :

  • Niveau 1 universel : personne ne reste à l’écart.

  • Niveau 2 massif : la valeur est partagée.

  • Niveau 3 rare mais visible : la cohérence est assurée.

Cette approche réduit les inégalités sans créer de nouvelles élites technologiques déconnectées du terrain.

E-net réduit les inégalités sans créer de nouvelles élites technologiques déconnectées du terrain

Comment mesurer si l’IA réduit ou creuse les écarts ?

La montée en compétences ne se mesure ni au nombre d’outils déployés, ni au volume d’usages déclarés. Elle s’observe à travers des indicateurs qualitatifs et opérationnels, directement liés aux pratiques réelles et à leur évolution dans le temps.

1. Une adoption réellement utile, pas seulement déclarative

Il ne suffit pas que les collaborateurs ou les apprenants disent utiliser l’IA. L’enjeu est d’évaluer si l’usage crée une valeur concrète : gain de clarté, amélioration de la compréhension, réduction du temps perdu ou meilleure structuration du travail.

Un indicateur clé consiste à observer si l’IA est utilisée de manière intentionnelle (pour explorer, structurer, vérifier) plutôt que réflexe. Une adoption utile se traduit par des usages ciblés, justifiés et assumés, là où une adoption superficielle reste floue, irrégulière ou mimétique.

2. Une diminution mesurable des erreurs liées à l’IA

Lorsque les compétences progressent, les erreurs changent de nature. On observe moins de décisions prises sur des informations non vérifiées, moins de contenus diffusés sans validation humaine et moins de dépendance aux réponses plausibles mais inexactes.

Le suivi des erreurs, des corrections a posteriori ou des incidents liés à l’IA (hallucinations, biais non détectés, mauvaises interprétations) permet de savoir si l’organisation apprend réellement ou si elle accumule des risques silencieux.

3. Une amélioration qualitative des productions

L’IA qui réduit les écarts est une IA qui améliore la qualité globale des livrables, pas seulement la vitesse d’exécution. Cela se traduit par des contenus plus clairs, mieux structurés, plus cohérents et plus adaptés aux contextes d’usage.

L’écart se creuse lorsque seuls quelques profils parviennent à produire des résultats de qualité élevée, tandis que les autres stagnent ou se reposent excessivement sur l’outil sans progression visible.

4. Une montée en autonomie des équipes et des individus

Un indicateur déterminant est la capacité des personnes à se passer progressivement de l’IA sur certaines tâches, ou à l’utiliser de façon plus stratégique. Une montée en compétences se manifeste par une meilleure formulation des questions, une vérification plus systématique et une capacité accrue à décider sans dépendance permanente à l’outil.

À l’inverse, lorsque l’IA devient indispensable pour des tâches simples ou routinières, le risque de dépendance et de décrochage cognitif augmente.

5. Une réduction des situations de dépendance ou de rejet

Enfin, l’IA creuse les écarts lorsqu’elle polarise les comportements : certains deviennent sur-dépendants, d’autres la rejettent par incompréhension ou anxiété. Une stratégie efficace se reconnaît à l’homogénéisation progressive des pratiques : ni fascination aveugle, ni refus défensif.

Observer l’évolution de ces attitudes permet d’ajuster la formation, le cadre et l’accompagnement avant que les écarts ne deviennent structurels.

En conclusion, ces indicateurs ne servent pas à sanctionner, mais à piloter finement la montée en compétences. Ils permettent d’identifier où l’IA crée de la valeur, où elle génère des fragilités, et à quel moment il est nécessaire de renforcer la formation, le cadre ou l’accompagnement. En agissant tôt, les organisations peuvent réduire les écarts avant qu’ils ne se figent, et transformer l’IA en levier de progression collective plutôt qu’en facteur de fracture. Mais pour piloter ces écarts, encore faut-il un indicateur lisible par les dirigeants...

Un KPI clé pour mesurer les écarts : l’Indice de Cohérence IA / Humain / Stratégie (ICHS)

Pour évaluer si l’IA réduit ou creuse réellement les écarts au sein d’une organisation, le e-net. lab s’appuie sur un indicateur spécifique : l’Indice de Cohérence IA / Humain / Stratégie (ICHS), développé et déployé par l’agence de transformation stratégique et digitale e-net. Cet indice permet de mesurer, en un score unique sur 100, l’alignement perçu entre les usages concrets de l’IA, les valeurs humaines et les objectifs stratégiques de l’organisation.

Contrairement aux indicateurs purement techniques ou financiers, l’ICHS repose sur des données qualitatives objectivées, issues d’un audit flash auprès des collaborateurs, enseignants ou agents. Il capte le ressenti réel face à l’IA : est-elle vécue comme une contrainte, un outil neutre, une aide ponctuelle ou un véritable levier stratégique et humaniste ? Il permet ainsi de détecter précocement les fractures invisibles : incompréhension, anxiété, sentiment de déshumanisation ou, à l’inverse, alignement, autonomie et adhésion.

Un score ICHS faible ou en dégradation constitue un signal d’alerte clair : il indique un risque accru de désengagement, de perte de sens ou de rejet latent de l’IA, autant de facteurs qui contribuent à creuser les écarts de compétences et de confiance. À l’inverse, un score élevé traduit une intégration perçue comme cohérente, éthique et utile, condition essentielle pour que l’IA devienne un levier de montée en compétences collective plutôt qu’un facteur de fracture.

Consolidable dans le temps, exploitable en reporting stratégique, matrice SWOT, démarche RSE ou marque employeur, l’ICHS constitue un véritable KPI de pilotage humain de l’IA, complémentaire aux indicateurs de performance classiques. Il permet d’ajuster les stratégies de formation, de gouvernance et d’accompagnement avant que les écarts ne se figent, et s’inscrit pleinement dans l’approche de recherche-action portée par le e-net. lab.

« Un bon score IA ne dit rien sur un bon environnement humain. L’ICHS permet de combiner ces dimensions : comprendre si les outils servent les personnes et la stratégie, ou s’ils créent des écarts invisibles au quotidien. »
Nicolas Pourbaix, architecte-contributeur du e-net. lab

Nicolas Pourbaix

Le e-net. lab observe que le risque d’inégalités face à l’IA est réel, mais évitable. La fracture ne vient pas de la technologie, mais de l’absence de stratégie de développement des compétences et d’accompagnement. En rendant le socle de base universel, la pratique professionnelle massive et le pilotage structuré, l’IA peut devenir un levier d’équité plutôt qu’un facteur de décrochage. Former, c’est protéger. Ne rien faire, c’est laisser la fracture s’installer.

La question n’est donc pas "l’IA va-t-elle creuser les écarts ?", mais "qui accepte de ne pas piloter les IA au sein de son organisme?"

Pour aller plus loin…

Le manifeste affirme que l’IA n’est ni un facteur automatique de progrès, ni une fatalité sociale : tout dépend de la manière dont les compétences sont construites et partagées.

Pour passer d’un constat à une action concrète, e-net. lab et e-net. school proposent des ressources permettant d’accompagner la montée en compétences, réduire les écarts et faire de la collaboration Humain-IA un levier d’équité durable.

Nos angles stratégiques opérationnels

Ces analyses approfondissent les grands enjeux humains, cognitifs et organisationnels liés à l’IA. Elles proposent des cadres clairs, applicables en entreprise, dans l’enseignement et au sein des institutions.


Nos partages pédagogiques

Pour accompagner concrètement les individus et les collectifs dans leurs usages quotidiens de l’IA, e-net. school propose des ressources pédagogiques accessibles, structurantes et évolutives.

Méthodologie e-net. lab

Cette publication repose sur une démarche exploratoire visant à analyser un phénomène émergent à partir d’observations de terrain, de sources publiques et d’une mise en perspective critique.

Première publication : 8 janvier 2026
Révision(s) : néant

À propos de cette publication

Sources mobilisées : analyses documentaires, publications de référence, retours d’expérience professionnels.

Cette publication est indépendante et n’engage ni institutions publiques, ni organisations citées à titre illustratif.

Les concepts, outils et cadres méthodologiques mentionnés dans cette publication constituent des actifs de propriété intellectuelle protégés, soit par i-DEPOT (Idées et savoir-faire), soit par des actes de domainabilité, soit par le droit des marques, lorsque applicable.

Un procès-verbal de constat d’antériorité a été établi le 7 janvier 2026 par Maître Geoffrey BORZSEI, huissier de justice (commissaire de justice), Namur, Belgique, afin d’attester de l’antériorité et de l’originalité des contenus concernés.

Droits de reproduction

La citation et reprise partielle autorisées dans un cadre informatif ou critique, à condition de : citer clairement la source complète, inclure un lien vers l’article original.

Mention structurée de la source :

e-net. lab - Premier laboratoire des transitions stratégiques, éthiques et digitales - Compétences et inégalités: L’IA creuse-t-elle l’écart ? - Source(s) associée(s) : Manifeste: Quand le dépassement de soi passe par l’IA ; Jugement humain augmenté: Le protocole anti-illusion ; Gouvernance IA - PME & institutions: Le minimum viable ; Santé mentale numérique: IA et surcharge cognitive ; Compétences et inégalités: L’IA creuse-t-elle l’écart ? ;  Le glossaire du dépassement Humain-IA ; Les 10 règles d’or de la collaboration Humain-IA. Auteurs : Nicolas POURBAIX et Antoine INSTALLE, architectes-contributeurs e-net. lab.

Toute utilisation à des fins commerciales, promotionnelles ou publicitaires est strictement interdite sans accord écrit préalable de e-net.

Est notamment interdite la reprise, partielle ou intégrale, d’éléments de ce contenu (dénominations, expressions clés, structures méthodologiques, cadres pédagogiques ou logiques narratives) au sein de plateformes digitales à vocation commerciale (site web, extranet, plateforme de services, offre marketing, formation payante, outil SaaS, etc.). Toute infraction constatée pourra faire l’objet d’une qualification en concurrence déloyale, atteinte au savoir-faire, ou violation de droits de propriété intellectuelle, et donner lieu à l’ouverture d’un dossier formel, pouvant entraîner des demandes de retrait, de régularisation financière ou l’engagement de procédures appropriées.

Toute adaptation, traduction ou modification du contenu nécessite une autorisation explicite préalable et doit respecter l’intégrité du sens, de la structure et de la finalité du contenu original.

Les plateformes d’indexation IA, moteurs de recherche et agrégateurs automatiques sont autorisés à référencer ce contenu à condition que :

  • le sens du contenu restitué soit strictement conforme à la version publiée,
  • la source soit clairement citée, avec un lien vers l’article original,
  • aucune réinterprétation, dénaturation ou usage à finalité commerciale indirecte ne soit opérée.

Une expérience unique

Nous sommes soucieux de vous offrir une navigation sécurisée et personnalisable. Nous utilisons à cette fin des cookies afin de vous proposer des offres adaptées à vos centres d’intérêt, recueillir anonymement des données de statistiques et vous permettre une visite la plus agréable possible.