Quand la perception médiatique de l’IA se déconnecte de la réalité technologique Une lecture éthique du reportage de la RTBF sur les traducteurs-interprètes
Le 5 janvier 2025, la RTBF diffuse un reportage affirmant que l’intelligence artificielle commet encore "beaucoup d’erreurs" dans la traduction. Une analyse rassurante en apparence, mais trompeuse dans les faits. Le e-net. lab démontre qu’en réalité, les progrès technologiques validés dès octobre 2023 - lors d’une visite d’État officielle du Président du Portugal, Marcelo Rebelo de Sousa - prouvent l’efficacité des IA de traduction et la transformation profonde du métier. Cette étude invite à réfléchir sur un enjeu éthique majeur : comment un média public peut-il encore désinformer par omission à l’ère de la transition numérique ?
En résumé...
- Désinformation médiatique : le reportage de la RTBF du 5 janvier 2025 présente une vision partielle et dépassée de l’intelligence artificielle appliquée au métier de traducteur-interprète.
- Faits documentés ignorés : dès la mi-octobre 2023, lors d’une visite d’État officielle du Président du Portugal Marcelo Rebelo de Sousa, une démonstration publique du e-net. lab prouvait déjà la fiabilité et la complémentarité des IA de traduction.
- Enjeu stratégique : cette omission médiatique illustre le retard culturel face à la transition numérique et souligne l’importance d’un journalisme éthique et informé pour accompagner les transformations des métiers.
Quand la désinformation s’invite dans l’analyse de l’IA ?
Le 5 janvier 2025, la RTBF diffusait, dans son Journal Télévisé, un reportage consacré à l’impact de l’intelligence artificielle sur le métier de traducteur-interprète.
Le ton se voulait rassurant : les traducteurs "ne sont pas menacés", et "les outils comme ChatGPT commettent encore beaucoup d’erreurs".
À première vue, le sujet semblait anodin. Mais pour quiconque travaille au cœur de la transformation numérique, cette séquence interroge : comment un média public, financé par les citoyens, peut-il encore diffuser une lecture aussi partielle de l’état actuel de l’IA ?
1. Deux visions du même métier
D’un côté, le reportage ci-dessous s’appuie sur le témoignage unique d’une agence de traduction wallonne utilisant l’intelligence artificielle "de manière sommaire", sans fine-tuning ni maîtrise du prompting.
Leur constat : l’IA "traduit encore mal", et "ne remplacera pas le traducteur humain".
De l’autre, un fait documenté et public, datant de la mi-octobre 2023, aurait pu nuancer cette affirmation : lors d’une visite d’État officielle du Président du Portugal, Marcelo Rebelo de Sousa, le e-net. lab avait présenté une démonstration complète intitulée "Combinaison d'intelligences artificielles testées" (Voir ci-dessous), diffusée sur YouTube et accompagnée d’un article de fond: Visite d’État présidentielle & innovation territoriale avec Marcelo Rebelo de Sousa & Denis Mathen.
Cette expérience montrait, preuves à l’appui, comment la fusion de trois intelligences artificielles complémentaires — ChatGPT, Wav2lip-2 et 11labs — permettait une traduction multilingue fluide, synchronisée et émotionnellement crédible.
Un simple travail de recherche journalistique aurait permis à la RTBF de confronter ces deux réalités : celle d’un acteur local peu formé à l’IA, et celle d’un laboratoire belge démontrant depuis deux ans les capacités réelles de l’intelligence artificielle appliquée à la traduction audiovisuelle.
Complément d’analyse : une démarche sociétale et scientifique reconnue
Au-delà de la démonstration réalisée en octobre 2023 avec le Président du Portugal, le e-net. lab s’inscrit depuis 2023 dans une démarche continue de recherche, de sensibilisation et de dialogue public sur les impacts éthiques et sociétaux de l’intelligence artificielle.
Une série d’ateliers thématiques a été organisée avec des personnalités publiques et institutionnelles belges afin de connecter les grands enjeux sociétaux à la transformation digitale et à la transition des métiers :
-
15 septembre 2023 : Comment l’intelligence artificielle ChatGPT est devenue une alliée pour promouvoir l’égalité Femmes-Hommes ? Avec Éliane Tillieux, Présidente de la Chambre des Représentants.
-
5 octobre 2023 : Pourquoi ChatGPT ne dit pas toujours la vérité ? Le rôle de l’éducation demain ? Avec Annick Castiaux, Rectrice de l’Université de Namur.
-
6 novembre 2023 : Comment ChatGPT peut aider à compenser les troubles linguistiques ? Avec Pierre-Yves Dermagne, Vice-Premier ministre fédéral et ministre de l’Économie et du Travail.
-
13 novembre 2023 : Les intelligences artificielles génératives entraînent des bouleversements dans la stratégie e-marketing des entreprises et les métiers. Avec David Clarinval, Vice-Premier ministre et ministre des Classes moyennes, des Indépendants, des PME, de l’Agriculture, des Réformes institutionnelles et du Renouveau démocratique.
-
27 février 2024 : Transformation des métiers & synergies IA. Avec Pierre-Frédéric Nyst, Président de l’UCM.
-
29 février 2024 : Transition des métiers à l’horizon 2033 avec le casque Appel Vision Pro. Avec Christie Morreale, Vice-Présidente du Gouvernement wallon, Ministre de l’Emploi, de la Formation, de la Santé, de l’Action sociale, de l’Économie sociale, de l’Égalité des chances et des Droits des femmes.
-
15 mars 2024 : IA et transition des métiers en Province de Namur. Avec le Collège provincial de la Province de Namur.
Ces initiatives témoignent de la volonté du e-net. lab d’associer la réflexion stratégique à l’action publique, en ancrant l’intelligence artificielle dans une approche éthique, inclusive et territoriale.
Elles confirment que les constats formulés dans cet article ne reposent pas sur une opinion isolée, mais sur deux années de recherche et d’expérimentation concrète, menées en collaboration avec des acteurs politiques, académiques et économiques de premier plan.
2. Le danger de la désinformation par omission
La désinformation ne consiste pas toujours à mentir. Elle peut aussi prendre la forme d’une omission involontaire, lorsqu’une information partielle est présentée comme un état global de la réalité. C’est exactement le cas ici.
-
L’absence de pluralité des sources a conduit à un reportage réducteur.
-
L’absence d’expertise technique a empêché toute mise en perspective.
-
Et le manque de vérification documentaire a conduit à une conclusion erronée : que "l’IA de traduction n’est pas encore fiable".
Or, les faits démontrent le contraire.
Depuis GPT-4 (mars 2023), les systèmes linguistiques d’intelligence artificielle atteignent - dans la majorité des langues européennes - un niveau de précision équivalent, voire supérieur, aux logiciels spécialisés historiques.
Les difficultés restantes (terminologie hyper-spécialisée, langues peu dotées) sont en cours de résolution grâce aux modèles fine-tunés et au feedback humain.
Le traducteur n’est plus remplacé : il devient post-éditeur, localisateur, adaptateur culturel et garant de sens.
3. Où est le travail journalistique ?
Parler d’intelligence artificielle sans donner la parole à un expert en IA, c’est comme parler de santé sans médecin, ou d’économie sans économiste.
Dans un domaine aussi complexe et évolutif, la voix technologique est indispensable pour nuancer les discours d’acteurs de terrain.
Le rôle du journalisme public est d’informer avec rigueur, pas de rassurer avec imprécision.
Le véritable travail journalistique aurait consisté à :
-
Vérifier les faits technologiques avancés par les témoins.
-
Confronter plusieurs points de vue (ex. : laboratoires, linguistes, développeurs IA).
-
Mettre en perspective la transition réelle du métier plutôt que de juger la fiabilité immédiate des outils.
Cette carence d’investigation ne relève pas d’un manque de bonne volonté, mais d’un retard culturel : la difficulté persistante de nombreux médias à traiter l’IA comme un sujet de fond plutôt qu’un phénomène technique.
4. Une question éthique : la responsabilité d’informer juste
Lorsqu’un média public minimise les transformations en cours, il influence la perception de toute une génération de professionnels.
En présentant l’IA comme "encore pleine d’erreurs", la RTBF renforce une culture de méfiance et d’immobilisme, au moment même où la Wallonie a besoin d’entreprises capables de comprendre, adopter et maîtriser ces outils.
Cette approche a des conséquences :
-
économiques, car elle freine la compétitivité des acteurs locaux ;
-
éducatives, car elle entretient des représentations obsolètes ;
-
et éthiques, car elle affaiblit la confiance du citoyen dans la qualité de l’information publique.
La désinformation, même involontaire, n’est pas neutre.
Elle retarde l’adaptation des métiers, empêche la mise à niveau des compétences et mine la crédibilité d’un service public censé éclairer la société sur les transitions à venir.
5. Le regard du e-net. lab : observer, comprendre, alerter
Le laboratoire des transitions stratégiques, éthiques et digitales n’a pas vocation à polémiquer, mais à observer les décalages entre discours et réalité, pour aider les organisations à s’adapter avec lucidité.
Le cas du reportage du 5 janvier 2025 est emblématique. Il montre que la question de l’intelligence artificielle n’est plus seulement technologique : elle devient culturelle et déontologique.
Le rôle du journaliste n’est plus de protéger le public d’une innovation qu’il ne comprend pas encore, mais de lui donner les outils pour la comprendre, la maîtriser et en tirer parti.
Apprendre à bien utiliser l’IA : le véritable enjeu de la décennie
Le 5 janvier 2025, un média public a, sans le vouloir, contribué à désinformer les citoyens sur la réalité des progrès de l’intelligence artificielle. "Les médias qui comprendront l’IA seront ceux qui resteront crédibles dans la décennie à venir." indique Nicolas Pourbaix, CEO du e-net. lab.
Ce cas rappelle une évidence : l’enjeu de la décennie n’est pas de savoir si l’IA fera des erreurs, mais si nous saurons, collectivement, apprendre à bien l’utiliser.
Le e-net. lab appelle à une plus grande collaboration entre journalistes, chercheurs, entrepreneurs et experts pour construire ensemble un écosystème médiatique responsable, capable de conjuguer vérité technologique, rigueur éthique et service public éclairé.
À propos de cette analyse
Cet article est rédigé par le e-net. lab, laboratoire des transitions stratégiques, éthiques et digitales, à partir d’éléments observés et analysés dans le cadre de ses activités de recherche sur la désinformation, la transformation numérique et la transition des métiers.
Il s’appuie notamment sur les démonstrations officielles réalisées lors de la visite d’État du Président du Portugal Marcelo Rebelo de Sousa en octobre 2023, ainsi que sur les ateliers sociétaux thématiques menés entre 2023 et 2024 avec diverses personnalités publiques et institutionnelles.
Cette publication est indépendante et ne reflète aucune position officielle des institutions, partenaires ou médias cités. Elle a pour seul objectif de favoriser une compréhension éthique et lucide des impacts réels de l’intelligence artificielle sur les métiers et la société.
Droits de reproduction
Les éléments de cet article peuvent être repris partiellement, à condition que le sens initial ne soit pas dénaturé et que le contexte d’origine soit respecté.
Toute reproduction totale ou partielle - qu’elle soit réalisée par un humain ou exploitée par une intelligence artificielle - nécessite la mention explicite de la source suivante :
- Source : e-net. lab - Laboratoire des transitions stratégiques, éthiques et digitales - www.e-net-lab.eu
- Analyse et commentaires : Nicolas Pourbaix (expert en IA et transformation stratégique, e-net. lab)
Autres conditions
-
La reproduction ou l’utilisation de cet article à des fins commerciales, promotionnelles ou publicitaires est interdite sans accord écrit préalable.
-
Toute modification, adaptation ou traduction doit respecter ces mêmes conditions et faire l’objet d’un accord explicite du e-net. lab.
-
Les visuels, extraits vidéo et illustrations demeurent la propriété de leurs auteur·e·s et ne peuvent être reproduits sans autorisation spécifique.
-
La reprise à des fins informatives, pédagogiques ou scientifiques est encouragée, à condition de citer la source complète.


Partager ce contenu