Par Philippe Caignon, terminologue agréé et traducteur agréé
Au fil des ans, Circuit a abordé l’écriture inclusive sous divers angles. Entre autres sujets, nous avons traité du sexisme1 et de la non-représentation des femmes et des personnes non binaires2 dans les documents rédigés au cours des tout derniers siècles. De fait, nous avons constaté qu’en français, l’octroi du statut neutre ou la prééminence de l’accord du participe passé et des adjectifs au genre masculin, même si celui-ci ne représente qu’un seul élément d’une longue énumération de noms féminins, par exemple, relève d’un choix idéologique récent – XVIIe siècle – et conscient de l’Académie française.
En effet, d’après les croyances des académiciens de l’époque, « le genre masculin est réputé plus noble que le féminin, à cause de la supériorité du mâle sur la femelle3 ». Certes, nous ne jugerons pas les valeurs sociales de nos ancêtres, même si nous sommes en désaccord avec celles-ci. Cependant, nous pouvons observer les conséquences qu’a entraîné leur adoption sur notre société.
Ainsi, dans une entrevue accordée à la journaliste Annabelle Caillou, Lori Saint-Martin, professeure au Département d’études littéraires à l’Université du Québec à Montréal, déclare que « La langue influence les mentalités. Les mentalités influencent les actions. Si on a entendu depuis l’enfance que le masculin l’emporte sur le féminin, à une réunion professionnelle, on ne sera pas choqué de voir la même chose au moment de prendre la parole4 ». La langue finit donc par programmer des façons de penser qui entraînent inexorablement des gestes et des décisions ayant un impact parfois perturbateur sur la vie de chaque personne.
Du 12 au 13 mai 2022, les professeures Alexandra Hillinger et Zélie Guével de l’Université Laval ont organisé une série de conférences et de sessions traductologiques sur le thème La formation en traduction à l’ère du numérique, dans le cadre du 89e congrès de l’ACFAS. Un grand nombre d’universitaires, de même que Donald Barabé, traducteur agréé et président de l'OTTIAQ, étaient présents et ont profité d’une excellente mise à jour de leurs connaissances sur la traduction automatique neuronale, la traduction assistée par ordinateur, la pédagogie appliquée à la traduction et à la terminologie ainsi que sur la post-édition.
Parmi les personnes invitées, Rudy Loock, enseignant à l’Université de Lille, a présenté une allocution d’ouverture au cours de laquelle il a mentionné un fait qui à première vue pourrait sembler anecdotique, mais qui est des plus révélateurs sur la façon dont notre société perçoit les différences entre hommes et femmes, voire entre hommes et personnes non genrées.
M. Loock a en effet expliqué qu’une machine pouvait faire preuve de sexisme parce que les textes qu’on lui a fournis pour qu’elle apprenne à traduire ne comportaient que des exemples où certaines fonctions étaient seulement tenues par des hommes, notamment des fonctions de direction. De fait, M. Loock a constaté que certains textes français résultant de la traduction automatique neuronale comportaient des fautes de genre : toute femme occupant un poste de direction était systématiquement qualifiée de « directeur », même si son prénom était éminemment féminin. La machine ne pouvait pas concevoir qu’un poste de direction pouvait être détenu par une personne qui n’était pas du genre grammatical masculin. C’est la preuve qu’il faut porter une attention particulière au contenu des corpus qu’on donne aux logiciels et dont se nourrissent les algorithmes décisionnels.
Il va de soi que ce type d’erreur peut être découvert en post-édition, mais l’aspect pré-édition ne doit pas être sous-estimé, car en ce qui a trait à la traduction automatique, le résultat se décide notamment au début du processus traductionnel. Comme le fait remarquer M. Loock, il s’agit d’une question d’éthique.
Qui plus est, le contenu d’un texte inintentionnellement discriminatoire peut fort bien percoler de façon imperceptible dans le vécu familial et professionnel des membres de la communauté langagière, car nombre d’entre nous font partie de « ces gens » qui peuvent être exclus, visés ou accusés. En effet, la discrimination apprise par les machines ne touche pas seulement les femmes et les personnes non genrées. Les personnes appartenant aux minorités visibles, tous les membres de la communauté LGBTQIA+, les personnes en situation de handicap et les personnes « âgées » font régulièrement l’objet de discrimination algorithmiques5,6. En fait, personne n’est à l’abri d’une nouvelle tendance discriminatoire.