Meta, la maison-mère de Facebook, d’Instagram et de WhatsApp, a publié au début de juillet un rapport décrivant son utilisation de l’intelligence artificielle (IA) pour parfaire la traduction de plus de 200 langues.
ZDNet, le réseau de sites spécialisés dans les nouvelles technologies, revient sur les faits saillants de ce document, rédigé par une équipe de chercheurs de Meta ainsi que de l’Université de Californie à Berkeley et de l’Université Johns-Hopkins, intitulé « No Language Left Behind: Scaling Human-Centered Machine Translation ».
NLLB : des résultats perfectibles
Selon l’article, « le réseau neuronal » utilisé par les chercheurs, connu sous le nom de « No Language Left Behind » (NLLB), ne montre pas « une grande amélioration de la traduction dans un certain nombre de langues ». Les résultats sont effectivement décevants non seulement pour les langues à faibles ressources comme l’oromo, de la région d’Oromia en Éthiopie, mais aussi pour celles disposant d’un matériel de traduction, pourtant, plus facilement accessible comme le grec et l’islandais.
Par ailleurs, les rendements de l’outil décroissent lors de la traduction de phrases de l’anglais vers une autre langue, relève ZDNet, tandis que « certains effets négatifs » se font jour « lors de la traduction entre des phrases non anglaises ».
Peu d’amélioration pour l’arménien ou l’oromo
« Sur de nombreuses langues, comme de l’arménien vers l’anglais; de l’oromo vers l’anglais; de l’amharique […] vers l’arménien; du français vers le wolof; et de l’hindi vers le chhattisgarhi – une langue principale de l’État du même nom dans le centre de l’Inde, [les chercheurs] constatent que l’amélioration par rapport au modèle de base est faible, voire nulle. »
Néanmoins, le score global « n’est pas mauvais », mais les chercheurs constatent des résultats discutables en matière de traduction de l’anglais vers le grec.
Au demeurant, ces exemples isolés ne sauraient masquer quelques succès : une grande amélioration du russe traduit en tagalog, langue dominante aux Philippines, par exemple.
L’humain, dans toute sa diversité, toujours indispensable
« Nous espérons que dans les itérations futures, le modèle NLLB continuera à s’étendre pour inclure des chercheurs de domaines sous-représentés dans le monde de la traduction automatique et de l’IA, en particulier ceux issus des sciences humaines et sociales, a indiqué l’équipe de scientifiques. Plus important encore, nous espérons que les équipes développant de telles initiatives seront issues d’un large éventail d’origines, de genres et d’identités culturelles, à l’image des communautés dont nous cherchons à améliorer la vie. »
L’article mentionne aussi des travaux des scientifiques de Google, dévoilés en mai dernier, qui ont pu « parcourir le web pour trouver plus d’un million de phrases dans plus de 200 langues et plus de 400 000 phrases dans plus de 400 langues ».
Source : ZDNet.com
Crédit photo : Pexels / This Is Engineering
Laisser un commentaire