L’avènement des systèmes d’intelligence artificielle générative (SIAG) dans l’espace public n’est pas passé inaperçu et a suscité des réactions de nombreux secteurs professionnels : de l’intérêt, de l’émerveillement, mais aussi de la peur. Ces nouveaux systèmes, accessibles à tous et très faciles à utiliser font la manchette comme solution à maints problèmes; cependant, quiconque travaille dans la sphère langagière depuis quelques années comprend bien que ces solutions ne peuvent échapper à l’influence humaine. En effet, si le grand public découvre aujourd’hui l’intelligence artificielle (IA), les professions langagières sont tombées dans cette marmite il y a déjà plusieurs années. Toutefois, les SIAG avec leur interface conversationnelle deviennent des « interlocuteurs » convaincants et les personnes les utilisant sont plus à même d’avoir un « biais d’automatisation », soit une tendance à surestimer les capacités des machines1. Pourtant, il ne faut pas perdre de vue que ces machines sont « conçues pour prédire les mots ou les symboles les plus probables à la suite de requêtes, et non pour identifier directement la réponse factuellement correcte à une question2 ». De plus, ces systèmes se nourrissent des données produites par nos interactions, elles sont donc programmées pour rendre ces « conversations » aussi longues que possible en s’assurant de plaire aux personnes les interrogeant.
Que se passe-t-il lorsque l’IA n’a pas assez d’information pour prédire la réponse à une question, mais doit malgré tout en fournir une? « Ce phénomène est qualifié de “fabulation” ou d’“hallucination”, par analogie ou anthropomorphisme avec des phénomènes similaires en psychologie humaine. Cependant, le terme “fabulation” est plus précis puisqu’il désigne une histoire fantaisiste ou inventée présentée comme vraie, tandis que le terme “hallucination” se rapporte à une perception sensorielle inexacte3 ». Ainsi, ces fabulations sont présentées avec la même confiance que les réponses se basant sur des données probantes, et peuvent facilement échapper à la vigilance, même à celle d’un œil aiguisé.
Dans un article paru en 20234, le chercheur Giovanni Spitale et ses collègues de l’Université de Zurich démontrent d’ailleurs que des modèles de l’ampleur de GPT-3 peuvent agir comme des armes à double tranchant : ils produisent à la fois de l’information exacte et accessible, ce qui met en confiance les personnes les utilisant et renforce leur biais d’automatisation, mais ces systèmes peuvent également générer une désinformation particulièrement convaincante et difficile à déceler. Selon cette étude, il est difficile pour la moyenne des gens de distinguer les gazouillis générés par GPT-3 de ceux rédigés par de véritables personnes sur le réseau social X (Twitter au moment de la recherche). L’utilisation des SIAG pourrait ainsi exposer le grand public, mais aussi les membres de nos professions, à de l’information déformée ou erronée, la définition même de la mésinformation5.
Pour les spécialistes de la langue, la capacité des SIAG à produire de grandes quantités de contenu pose un défi majeur : évaluer la véracité de l’information dans un contexte où mésinformation et désinformation circulent aisément, parfois même à l’insu de notre clientèle. Si les membres de nos professions disposent d’outils pour repérer la mésinformation, le risque de fabulation rend essentiel le développement de compétences spécifiques pour repérer et signaler les éléments trompeurs dans les réponses des SIAG et, par extension, dans les textes traduits et à traduire.
Selon le Centre canadien pour la cybersécurité, des stratégies comme la reconnaissance des indicateurs d’information trompeuse (contenus provoquant une réaction émotionnelle vive, tenant des propos osés ou des affirmations étonnantes et contenant des fragments d’information valide exagérés et déformés) peuvent aider à détecter et à atténuer les effets de la mésinformation, mais un guide conçu spécifiquement pour faciliter le repérage des fabulations des SIAG est toujours à venir6. En France, Les lumières à l’ère numérique, commission créée par le président de la République en 2021 pour conseiller les gouvernements en matière de désinformation, également connue sous le nom de Commisson Bronner, préconise de doter toute la population des compétences nécessaires pour évoluer dans l’ère numérique et reconnaître la mésinformation et la désinformation.
Les mises en garde de ces organismes devraient inciter les traductaires à développer un œil critique pour repérer les « fabulations » générées par la machine en contre-vérifiant à l’aide de sources fiables toutes les réponses offertes et en contestant systématiquement les informations offertes par les SIAG.
Dans cette lutte contre la propagation de fausses informations, il est essentiel pour les personnes choisissant d’utiliser les SIAG d’adopter une approche hybride, combinant toujours les outils génératifs et les capacités de vérification et d’analyse humaines. La relecture et la validation des traductions assistées par IA par des spécialistes de la langue sont essentielles pour empêcher les fabulations des SIAG de se répandre notamment dans les textes professionnels et universitaires. Comme l’explique l’Association française des formations universitaires aux métiers de la traduction, les traductaires doivent non seulement intervenir en tant que vérificateurs de la machine, mais aussi en tant qu’intermédiaires entre l’information brute produite par l’IA et le contenu final destiné au lectorat7.
En conclusion, la profession fait donc face à un enjeu double : former les traductaires à développer une vigilance accrue face aux biais et erreurs potentiels de l’IA et des SIAG, et s’assurer que nos collègues disposent des outils et connaissances nécessaires pour collaborer efficacement avec ces technologies s’ils font le choix de les utiliser. Le mandat des langagiers et langagières s’étend, il ne s’agit plus uniquement de traduire ou de rédiger, mais de garantir la véracité et la fiabilité de l’information transmise dans un monde de plus en plus saturé de contenus générés artificiellement.
Émilie Gobeil-Roberge est travailleuse autonome sous le nom Traductions Lexiflo, candidate au doctorat en traductologie sous la direction d’Alexandra Hillinger et chargée de cours et de stages pour les programmes en traduction de premier et deuxième cycle de l’Université Laval.
1) Gratton, C. (2020). « Biais d’automatisation. » Dans E. Gagnon-St-Pierre, C. Gratton & E. Muszynski (Eds). Raccourcis : Guide pratique des biais cognitifs, Vol. 2. En ligne : www.shortcogs.com
2) CEST (2024). Intelligence artificielle générative en enseignement supérieur : enjeux pédagogiques et éthiques. Rapport du Conseil d’éthique en sciences et technologies. En ligne. Consulté le 11 novembre. : https://www.cse.gouv.qc.ca/wp-content/uploads/2024/04/50-0566-RP-IA-generative-enseignement-superieur-enjeux-ethiques.pdf
3) DATAFRANCA (2024). « Fabulation de l’IA » dans Datafranca Wiki. En ligne, consulté le 11 novembre : https://datafranca.org/wiki/index.php?title=Fabulation_de_l%27IA&oldid=107423
4) Spitale, Giovanni, Nikola Biller-Andorno and Federico Germani (2023) « AI model GPT-3 (dis)informs us better than humans. » Science Advances volume 9, Issue 26. DOI:10.1126/sciadv.adh1850
5) CEST (2024). Intelligence artificielle générative en enseignement supérieur : enjeux pédagogiques et éthiques. Rapport du Conseil d’éthique en sciences et technologies. En ligne. Consulté le 11 novembre. : https://www.cse.gouv.qc.ca/wp-content/uploads/2024/04/50-0566-RP-IA-generative-enseignement-superieur-enjeux-ethiques.pdf
6) Gouvernement du Canada (2024). Centre canadien pour la cybersécurité. En ligne, consulté le 11 novembre : https://www.cyber.gc.ca/fr
7) Le Monde (2024)