Google Translate & DeepL

Pour les algorithmes de traduction, les infirmiers sont des infirmières

L’outil de traduction de Google n’échappe pas aux stéréotypes de genre. L’organisation AlgorithmWatch pointe du doigt le non respect de la féminisation (et parfois de la masculinisation) lors de la traduction de nombreux métiers, de et vers des langues européennes. Service concurrent, DeepL souffre de biais similaires.

(Source: Bermix Studio on Unsplash)
(Source: Bermix Studio on Unsplash)

Organisation à but non lucratif se consacrant à l'analyse des algorithmes, AlgorithmWatch pointe du doigt les stéréotypes de genre du service de traduction de Google. Ce dernier a notamment la fâcheuse tendance à ne pas prendre en compte la féminisation de nombreux métiers.

En saisissant la formule «vier Historikerinnen und Historiker» (quatre historiennes et historiens) dans le moteur de traduction du géant du web, les traductions vers le français, l'espagnol, l’italien ou encore le polonais ne contiennent plus la déclinaison féminine. Après vérification, la rédaction confirme: la traduction française est restreinte à «quatre historiens».

Le compte-rendu de la recherche menée par Nicolas Kayser-Bril pour AlgorithmWatch mentionne de nombreux autres exemples de biais similaires observés après l’analyse de 440 paires de traductions de et vers l'allemand, l'italien, le polonais, l'espagnol et le français. Par exemple, le nom féminin «la cheffe» et ses équivalents dans les autres langues testées n’est correctement traduit qu’en polonais. Au final, 182 traductions sur 440 se sont avérées fausses. «Dans leur grande majorité, les erreurs concernaient des formes féminines converties en leur équivalent masculin», explique le chercheur d’AlgorithmWatch.

DeepL aussi

Les stéréotypes de genre se vérifient toutefois dans les deux sens. Ainsi, une phrase avec le nom commun allemand «Der Krankenpfleger», c’est-à-dire l'infirmier, se masculinise en français. Considéré par beaucoup comme un meilleur outil de traduction en ligne que celui de Google, DeepL n’échappe pas à ce stéréotype. La rédaction l’a testé avec la phrase «Des Krankenpfleger war abwesend»: vers le français, on obtient «L'infirmière était absente» (et non «L'infirmier était absent»).

De façon plutôt cocasse, en omettant de mettre un K majuscule au nom de la phrase testée précédemment («Der krankenpfleger war abwesend.»), le biais n'opère plus et le moteur de traduction propose «L'aide-soignant était absent.» Enlevez le point, le biais apparaît à nouveau… Ces algorithmes sont décidément une boîte noire et leur logique est difficile à saisir.

Le chercheur d’AlgorithmWatch a demandé des explications à Google. La firme brandit l’excuse du «bridging», technique permettant de pallier le manque de volumes de données suffisants pour certaines paires de langues. «Le pontage linguistique en traduction signifie que pour traduire de X à Y, une troisième langue est introduite (E) en fonction de l'existence de données bilingues pour traduire X à E puis E à Y. La langue la plus couramment utilisée comme pont est l'anglais», confie un porte-parole de Google cité par le chercheur. La majorité des noms en anglais étant neutres en termes de genre, la féminisation ou masculinisation se perd donc en passant par la moulinette du traducteur automatique.

Il convient toutefois d’apporter une nuance importante. Dans son article, l'analyste d’AlgorithmWatch souligne en effet que son expérience ne reflète pas nécessairement les résultats de traduction de pages web ou de textes plus longs: «Dans certains cas, en particulier lorsque les mots voisins contiennent des formes féminines, Google traduit correctement les formes genrées.»

Tags
Webcode
DPF8_191271