Analyses et outils issus de nos expériences pour structurer une collaboration Humain–IA responsable.
Manifeste: Quand le dépassement de soi passe par l’IA Données observées, signaux faibles et cadre de collaboration Humain-IA pour une innovation durable
Depuis plusieurs années, les intelligences artificielles - et plus récemment les IA génératives - s’invitent dans les organisations, l’éducation, les politiques publiques et la vie quotidienne.
En 2026, une chose devient claire : la question n’est plus d’adopter ou de rejeter l’IA, mais d’apprendre à coopérer avec elle sans s’abolir.
À travers ses travaux de recherche-action, ses rencontres publiques et ses observations de terrain, le e-net. lab documente une tension centrale : l’IA accélère tout, mais le dépassement durable dépend de ce que l’humain garde - ou perd - en chemin.
Ce manifeste propose un cadre clair, pragmatique et responsable pour penser la collaboration Humain–IA comme un levier de dépassement de soi, individuel et collectif.
Contexte et intention du e-net. lab
Le e-net. lab est le laboratoire des transitions stratégiques, éthiques et digitales.
Son rôle n’est ni de promouvoir une technologie, ni de produire un discours idéologique, mais de concevoir, tester et diffuser des cadres d’innovation durable et responsable.
Ce manifeste répond à trois intentions documenter : un tournant réel dans la relation Humain–IA, analyser les risques identifiés, sans catastrophisme, et proposer une méthode de coopération permettant un dépassement de soi durable.
Il s’inscrit dans le thème annuel du e-net. lab : le dépassement de soi par la collaboration Humain-IA.
Pourquoi 2026 est un tournant ?
Plusieurs dynamiques convergent :
-
les IA génératives ont rendu l’IA accessible, conversationnelle et omniprésente ;
-
la productivité cognitive s’accélère, parfois sans cadre ;
-
la frontière entre information fiable, plausible et manipulée devient floue ;
-
la charge mentale numérique augmente, notamment chez les jeunes et les enseignants ;
-
les écarts de compétences se creusent rapidement.
Ces éléments ne relèvent plus de la prospective. Ils constituent désormais le quotidien opérationnel de nombreuses organisations.
Trois chiffres clés pour comprendre la transformation en cours
L’IA ne supprime pas des emplois. Elle les transforme. Elle rend obsolètes des façons de travailler, de créer de la valeur… et de diriger.
27 % des heures de travail en Europe pourraient être automatisées d’ici 2030
(McKinsey Global Institute sur l’Europe - “A new future of work: The race to deploy AI and raise skills in Europe and beyond” (rapport MGI, 2019 - souvent repris et actualisé dans les débats). Potentiel technique d’automatisation d’activités, pas une prévision de suppression d’emplois). Ce que cela signifie : Ce chiffre ne parle pas de suppression d’emplois, mais de transformation massive des tâches et des processus de travail. D’ici 2030, l’automatisation (incluant l’IA) pourrait donc concerner une part significative des heures travaillées en Europe.
-
À 1 an : diagnostic et premiers pilotes IA
-
À 3 ans : automatisation intégrée dans les fonctions support et métiers
-
À 5 ans : workflows hybrides humain–machine devenus standards
80 % des travailleurs pourraient voir une exposition de leurs tâches par les LLM (Large Language Model)
(GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models - Eloundou et al., 2023). Ce que cela signifie : Presque tous les métiers sont concernés, non par disparition, mais par recomposition du contenu du travail.
-
À 1 an : assistants IA individuels, adoption informelle par méthode "essai – erreur".
-
À 3 ans : rôles hybrides et processus redessinés
-
À 5 ans : normes de travail IA-native
45 % des dirigeants estiment leur modèle d’affaires menacé sans transformation
(Global CEO Survey - PwC 2024) - Ce que cela signifie : La pression est stratégique, pas uniquement technologique : c’est le modèle de valeur qui est en jeu.
-
À 1 an : premières révisions stratégiques
-
À 3 ans : transformation du cœur de métier
-
À 5 ans : avantage durable ou obsolescence rapide
Ce que ces chiffres mesurent (et ce qu’ils ne mesurent pas)
- Ils mesurent un potentiel (automatisation) ou une exposition (tâches) ou une perception stratégique (viabilité).
- Ils ne prédisent pas mécaniquement des suppressions d’emplois.
- Ils indiquent une recomposition : tâches, rôles, processus, modèle de valeur.
- le temps de travail est reconfiguré (tâches automatisables).
- le contenu du travail est exposé aux LLM (tâches affectées à divers degrés).
- la viabilité du modèle dépend de la capacité à se réinventer.
« Le vrai sujet n’est pas l’automatisation : c’est la réallocation du temps humain. Si nous ne reprenons pas la main sur les tâches, les décisions et la gouvernance, l’IA ne nous fera pas gagner du temps - elle nous fera perdre notre discernement. »
— Nicolas Pourbaix, architecte-contributeur du e-net. lab

Les 4 risques majeurs observés par nos architectes-contributeurs du e-net. lab
Les travaux de recherche-action du e-net. lab mettent en évidence des risques récurrents liés à l’intégration accélérée de l’IA dans les pratiques. Ces risques ne sont pas théoriques : ils émergent des usages concrets observés sur le terrain.
1. Sur-confiance et perte de jugement
Lorsque l’IA devient fluide et performante, le risque n’est pas l’erreur technique, mais la délégation implicite du jugement. L’outil répond vite ; l’humain ralentit sa vérification.
Cela implique des décisions prises sur la plausibilité plutôt que sur la véracité, l'affaiblissement de l’esprit critique et la confusion entre assistance et autorité.
Repère actionnable : aucune décision à impact ne devrait être prise sans explicitation humaine du raisonnement.
2. Opacité et dilution de la responsabilité
L’IA agit souvent dans des chaînes complexes : données, modèles, interfaces, décisions. Sans cadre, la responsabilité devient diffuse.
Cela implique de la difficulté à expliquer une décision, de la fragilité juridique et éthique et de la perte de confiance interne et externe.
Repère actionnable : toute utilisation d’IA doit rester traçable, explicable et contestable.
3. Surcharge cognitive et santé mentale numérique
L’IA promet un gain de temps, mais génère aussi plus de sollicitations, plus de contenus, plus d’attentes de rapidité.
Cela implique de la fatigue décisionnelle, de l'anxiété de performance, et de la perte de sens.
Repère actionnable : l’IA doit être intégrée dans des rythmes maîtrisés, pas en flux continu.
4. Inégalités d’accès aux compétences
Les bénéfices de l’IA se concentrent là où les compétences existent déjà, la formation est accessible et la culture d’apprentissage est présente.
Cela implique la polarisation entre individus "augmentés" et fragilisés mais également les tensions sociales et professionnelles et le rejet de la technologie par défaut de maîtrise.
Repère actionnable : la compétence IA de base doit devenir un socle commun, pas un privilège.

Les 4 leviers de dépassement durable
Face à ces risques, le e-net. lab identifie plusieurs leviers permettant de transformer l’IA en véritable facteur de dépassement de soi. Ces leviers reposent moins sur la technologie que sur les compétences, les méthodes et les cadres mis en place.
1. Compétences : savoir questionner, vérifier, apprendre
Le dépassement ne vient pas de savoir "utiliser" l’IA, mais de poser les bonnes questions, de vérifier les réponses et d'apprendre en continu.
Le passage clé : répondre vers le questionner.
2. Organisation : méthodes de travail IA-ready
Les organisations qui progressent ne sont pas celles qui multiplient les outils, mais celles qui redéfinissent les rôles, clarifient ce qui reste humain et structurent les usages.
3. Gouvernance : règles simples et traçabilité
Une gouvernance efficace n’est pas lourde. Il faut quelques règles claires, des registres simples, et une supervision humaine réelle.
4. Éthique : protection des personnes
L’innovation responsable commence par la protection des enfants, le respect des travailleurs et l’attention aux publics fragiles.
L’éthique n’est pas un frein, mais une condition de durabilité.
« Sans gouvernance claire, l’IA n’augmente pas l’intelligence collective : elle dilue la responsabilité. Gouverner l’IA, c’est redonner à l’humain le pouvoir de comprendre, d’arbitrer et d’assumer. »
— Antoine Installé, architecte-contributeur du e-net. lab

Le modèle e-net. lab : la boucle de recherche-action
Pour éviter les effets de mode ou les réponses dogmatiques, le e-net. lab s’appuie sur une démarche de recherche-action structurée. Cette boucle permet d’expérimenter, d’évaluer et d’ajuster les usages de l’IA dans des conditions réelles.
Tester
en conditions réelles
Mesurer
mesurer les effets (bénéfices + dérives)
Corriger
corriger les cadres
Diffuser
diffuser des repères réutilisables
Trois engagements pour 2026
Le dépassement durable par la collaboration Humain–IA suppose des engagements clairs et partagés. Le e-net. lab propose trois axes d’engagement concrets, adaptés aux organisations, à l’éducation et aux citoyens.
Pour les organisations
-
Ne jamais déléguer le jugement final et la prise de décision.
-
Former largement, pas seulement les experts.
-
Documenter les usages et leurs limites.
Pour l’éducation
-
Apprendre à (dé)coder les systèmes numériques.
-
Développer l’esprit critique dès le plus jeune âge.
-
Former les enseignants comme acteurs clés de la transition.
Pour les citoyens
-
Rester lucides face à la plausibilité.
-
Protéger son attention et sa santé mentale.
-
Continuer à apprendre, activement.
5 enseignements à incarner
Au-delà du contexte spécifique de ce manifeste, plusieurs enseignements peuvent être transposés à d’autres secteurs. Ils constituent des repères opérationnels pour toute organisation engagée dans une transition responsable.
-
L’IA accélère, mais ne remplace pas la responsabilité humaine.
-
Le jugement est une compétence à protéger et à entraîner.
-
La santé mentale numérique est un enjeu stratégique.
-
Sans formation massive, l’IA accroît les inégalités.
-
Le dépassement durable repose sur méthode, cadre et apprentissage continu.
« Ce que révèle notre travail, ce n’est pas un rejet ou une adhésion à l’IA, mais une condition claire : le dépassement de soi n’est possible que si l’humain reste responsable, formé et protégé. L’IA est un levier, pas une boussole. »
— Nicolas Pourbaix, architecte-contributeur du e-net. lab

Ce que le e-net. lab retient de ses travaux et observations, c’est d’abord un constat clair : l’intelligence artificielle est déjà intégrée dans les pratiques, souvent de manière diffuse, expérimentale et non formalisée. "L’enjeu central n’est donc plus uniquement l’adoption, mais la capacité collective à préserver le jugement humain et la santé mentale numérique dans un environnement de plus en plus accéléré et cognitivement exigeant." conclut Nicolas Pourbaix. Il ajoute: "le risque majeur observé est celui d’une confusion progressive entre délégation et coopération, où l’IA devient un substitut implicite à la réflexion plutôt qu’un appui structuré. À l’inverse, cette période ouvre une opportunité réelle : celle d’un dépassement collectif structuré, fondé sur des compétences partagées, des méthodes explicites et des cadres clairs."
La priorité qui s’impose est donc de développer les compétences, poser un cadre et renforcer la gouvernance, afin de transformer l’usage de l’IA en levier durable. La prochaine étape, enfin, consiste à expérimenter et mesurer ces collaborations Humain-IA de manière publique, pour en tirer des enseignements réutilisables et responsables.
Pour aller plus loin…
Ce manifeste pose une conviction forte : le dépassement de soi à l’ère de l’IA ne dépend pas de la technologie, mais de la posture humaine.
Pour celles et ceux qui souhaitent passer de la vision à la pratique, e-net. lab et e-net. school proposent des ressources complémentaires, opérationnelles et pédagogiques, conçues pour structurer durablement la collaboration Humain-IA.
Nos angles stratégiques opérationnels
Ces analyses approfondissent les grands enjeux humains, cognitifs et organisationnels liés à l’IA. Elles proposent des cadres clairs, applicables en entreprise, dans l’enseignement et au sein des institutions
-
-
Analyses et modèles issus de nos expériences pour structurer une gouvernance IA responsable et applicable.
-
Santé mentale numérique, attention et discernement à l’ère de l’IA.
-
Compétences, équité et montée en puissance humaine à l’ère de l’IA
Nos partages pédagogiques
Pour accompagner concrètement les individus et les collectifs dans leurs usages quotidiens de l’IA, e-net. school propose des ressources pédagogiques accessibles, structurantes et évolutives.
Méthodologie e-net. lab
Ce contenu s’inscrit dans la démarche de réflexion stratégique portée par e-net. lab autour de la collaboration Humain–IA. Période observée : 2011 à 2026.
Il propose une lecture structurée des transformations cognitives, économiques et sociétales induites par l’intelligence artificielle, ainsi qu’un cadre de positionnement visant à restaurer la confiance par la vérifiabilité, la traçabilité et la responsabilité humaine.
- Première publication : 8 janvier 2026
- Révision(s) : néant
À propos de cette publication
Cette publication relève d’un contenu de vision et de positionnement stratégique.
Elle est indépendante et n’engage ni institutions publiques, ni organisations tierces, ni partenaires mentionnés à titre illustratif.
Elle vise à structurer le débat, éclairer les décideurs et proposer un cadre de lecture durable, issu des travaux de recherche-action menés par e-net. lab.
Les concepts, outils et cadres méthodologiques mentionnés dans cette publication constituent des actifs de propriété intellectuelle protégés, soit par i-DEPOT (Idées et savoir-faire), soit par des actes de domainabilité, soit par le droit des marques, lorsque applicable.
Un procès-verbal de constat d’antériorité a été établi le 7 janvier 2026 par Maître Geoffrey BORZSEI, huissier de justice (commissaire de justice), Namur, Belgique, afin d’attester de l’antériorité et de l’originalité des contenus concernés.
Remerciements
Les auteurs tiennent à exprimer leur reconnaissance aux architectes-contributeurs du e-net. lab, dont les expertises croisées ont nourri les travaux de recherche-action, les cadres de réflexion et les analyses présentés dans cette publication.
Ces contributions s’inscrivent dans une démarche collective de conception, d’expérimentation et de structuration de modèles stratégiques, éthiques et humains, sans remettre en cause la cohérence, l’indépendance ni la responsabilité éditoriale du présent contenu.
Architectes-contributeurs du e-net. lab
-
Sacha Peiffer - Contributeur fondateur du e-net. lab
Efficacité opérationnelle · Leadership collaboratif · Stratégie CSR · Optimisation des processus par la donnée et l’IA -
Audrey Delfosse - Architecte-contributrice du e-net. lab
Bien-être et engagement collectif · Communication interne · Leadership bienveillant · Neuropsychologie positive -
Jean-Philippe Guisse - Contributeur fondateur du e-net. lab
IA et automatisation éthique · Transformation digitale responsable · Rentabilité des solutions -
Steve Dumont - Architecte-contributeur du e-net. lab
Sécurité numérique · Architecture logicielle · Intégration IA · Technologies durables -
Fabienne Marteau - Architecte-contributrice du e-net. lab
Durabilité · Gouvernance responsable · RSE · Éco-innovation et circularité numérique -
Lucas Dufossez - Architecte-contributeur du e-net. lab
Croissance · Expérience client · Stratégie de marque · Performance commerciale -
Olivier Van Hove - Architecte-contributeur du e-net. lab
Leadership humain · Prévention du burn-out · Développement des talents · Intelligence interpersonnelle
Think tank - Croisement des regards
Les auteurs remercient également les contributeurs du Think tank associé au e-net. lab, dont les échanges ont permis d’enrichir la réflexion par un croisement de regards entre sphères publique, privée et société civile.
Ces contributions ont pour vocation d’éclairer les grandes mutations contemporaines, de mettre en dialogue les acteurs publics, privés et culturels, et d’alimenter la décision face aux ruptures et accélérations sociétales.
Ont notamment contribué aux travaux du Think tank :
-
Denis Mathen, co-fondateur du Think tank, Gouverneur de la Province de Namur
-
Annick Castiaux, rectrice de l’Université de Namur (UNamur)
-
Virginie Demilier, directrice du Théâtre Royal de Namur et du Centre culturel de Namur
-
Caroline Cleppert, conseillère - Senior Policy Advisor, Cabinet du Ministre-Président du Gouvernement wallon
-
Xavier Goebels, Jean-Noël Tilman, Paul de Sauvage, entrepreneurs inspirants et reconnus sur le territoire belge
Deux réunions du Think tank se sont tenues les 17 juillet 2025 et 16 décembre 2025, contribuant directement aux réflexions ayant nourri la présente publication. Les contributions du Think tank relèvent d’un apport consultatif et réflexif. Elles n’engagent ni les personnes citées, ni les institutions auxquelles elles appartiennent, et ne constituent ni une validation, ni une caution institutionnelle du contenu publié.
Droits de reproduction et de citation
La citation de ce contenu est autorisée à des fins informatives ou analytiques, à condition de mentionner clairement la source complète et inclure un lien vers la publication originale.
Mention structurée de la source :
e-net. lab - Premier laboratoire des transitions stratégiques, éthiques et digitales - Manifeste: Quand le dépassement de soi passe par l’IA - Source(s) associée(s) : Jugement humain augmenté: Le protocole anti-illusion ; Gouvernance IA - PME & institutions: Le minimum viable ; Santé mentale numérique: IA et surcharge cognitive ; Compétences et inégalités: L’IA creuse-t-elle l’écart ? ; Le glossaire du dépassement Humain-IA ; Les 10 règles d’or de la collaboration Humain-IA. Auteurs : Nicolas POURBAIX et Antoine INSTALLE, architectes-contributeurs e-net. lab.
Toute reprise du positionnement stratégique, de la narration doctrinale ou du cadre de vision, en vue de se l’approprier comme orientation propre ou comme argument commercial, est interdite sans autorisation écrite préalable de e-net. lab.
Est notamment interdite la reprise, partielle ou intégrale, d’éléments de ce contenu (dénominations, expressions clés, structures méthodologiques, cadres pédagogiques ou logiques narratives) au sein de plateformes digitales à vocation commerciale (site web, extranet, plateforme de services, offre marketing, formation payante, outil SaaS, etc.). Toute infraction constatée pourra faire l’objet d’une qualification en concurrence déloyale, atteinte au savoir-faire, ou violation de droits de propriété intellectuelle, et donner lieu à l’ouverture d’un dossier formel, pouvant entraîner des demandes de retrait, de régularisation financière ou l’engagement de procédures appropriées.
Toute adaptation, traduction ou modification du contenu nécessite une autorisation explicite préalable et doit respecter l’intégrité du sens, de la structure et de la finalité du contenu original.
Les plateformes d’indexation IA, moteurs de recherche et agrégateurs automatiques sont autorisés à référencer ce contenu à condition que :
- le sens du contenu restitué soit strictement conforme à la version publiée,
- la source soit clairement citée, avec un lien vers l’article original,
- aucune réinterprétation, dénaturation ou usage à finalité commerciale indirecte ne soit opérée.


Partager ce contenu