Résumés

Nicolas Bacaër - Institut de Recherche pour le Développement

Retour d'expérience sur la traduction automatique post-éditée d'un livre de vulgarisation scientifique 

Si les traducteurs automatiques sont encore d'une utilité très limitée pour la traduction de textes littéraires, ils peuvent néanmoins rendre quelques services pour la traduction de textes moins subtils comme les livres de vulgarisation scientifique. Dans cet exposé, on présentera quelques remarques sur une expérience menée avec le traducteur automatique DeepL pour traduire puis post-éditer en plusieurs langues un livre initialement publié en français. En utilisant la traduction anglaise (faite manuellement) comme pivot, le livre a été traduit en 12 langues: italien, espagnol, portugais, roumain, allemand, néerlandais, russe, polonais, tchèque, bulgare, hongrois et chinois. Avec le traducteur automatique Yandex, le livre a également été traduit du russe en ukrainien. D'autres traductions sont en cours de préparation: en japonais, suédois, catalan, grec... Ces traductions posent la question de la diversité linguistique dans un domaine caractérisé par le quasi-monopole d'une seule langue et par une grande concentration des profits vers un très petit nombre de maisons d'édition.

 

Carole Birkan-Berz - Université de la Sorbonne nouvelle - Paris III : EA4398

Frontières de la traduction, frontières du littéraire : les textes littéraires en temps de détresse traduits par Facebook

Facebook/Meta est un réseau social qui propose systématiquement la traduction de nombreux contenus originaux postés par les internautes en différentes langues, grâce à un réseau de neurones convolutifs (CNN). Comme nombre de ses concurrents, Meta met en avant les résultats de son modèle, à savoir la diffusion de l'information en temps réel dans le monde entier, mais aussi son accessibilité et sa démocratisation, en le partageant depuis 2022 en Open Source.

En temps de conflits, journalistes et citoyens se tournent désormais vers les réseaux sociaux pour obtenir de l'information sur des théâtres d'opération peu couverts par les agences de presse. Depuis 2017, Facebook a lancé l'option de lire ces posts en traduction automatique. Bien que les risques de désinformation soient nombreux, ils sont compensés par la fiabilité supposée de la source, souvent reprise quelques jours plus tard dans les médias traditionnels, traduite alors par un traducteur humain, professionnel ou non. Ces contenus relèvent souvent de la littérature ou poésie de guerre ou de l'extrême: témoignages oculaires, plaidoyers, poésie du désespoir ou de la résilience. Littéraires parce qu'exprimant une voix singulière – souvent celle de la juste colère – et nimbés de références érudites extérieures, ces textes exigent d'être lus mais semblent résister à la traduction, du moins celle de l'algorithme Facebook. On peut donc se demander si ce dispositif fonctionne aussi bien que le réseau social semble le revendiquer. Notre étude qualitative propose d'examiner ce phénomène situé à la frontière du littéraire et de la traduction. Nous nous pencherons tour à tour sur un témoignage venu de Chine en 2022 pour commémorer un dissident, puis sur un post pamphletaire condamnant le non-interventionnisme, et sur les poèmes écrits au début de la guerre en Ukraine.

 

Juliette Bourget - Université Sorbonne Nouvelle - EA 4398 PRISMES - ED 625 MAGIIE

Une machine a-t-elle une voix singulière ? Vers une investigation du style des traducteurs automatiques

La traduction littéraire est souvent perçue comme difficilement compatible avec la technologie, d'où un nombre croissant d'études cherchant à évaluer les performances des traducteurs automatiques concernant ce type particulier de traduction. Comme le note Youdale (2020), la difficulté des textes littéraires ne repose pas uniquement sur des problèmes de lexique, celui présent dans la littérature étant souvent plus simple et moins varié que celui des textes techniques, mais sur les façons inhabituelles dont les auteurs manipulent le langage. De plus, on attend d'une traduction littéraire qu'elle respecte le sens de l'original, mais aussi qu'elle offre une expérience de lecture comparable, ce qui doit passer par la préservation des caractéristiques stylistiques du texte source. Ainsi, dans un roman comme The Talented Mr Ripley (1955) de Patricia Highsmith, l'empathie que le lecteur ressent pour le héros, pourtant un criminel démuni de tout sens moral, est rendue possible par la présence spectrale du narrateur dont la voix censée guider le lecteur est constamment contaminée par les interventions des pensées du personnage. 

Nous proposons donc d'analyser la façon dont différents traducteurs automatiques neuronaux abordent la traduction des énoncés qui, au sein de ce roman, présentent ce mélange de voix, car ils contiennent des éléments stylistiques connus pour être potentiellement problématiques pour la machine, comme la longueur des phrases, le mélange des registres, et la présence de discours indirect libre, en plus de la complexité linguistique liée à l'association des deux voix. Au-delà d'une simple identification des erreurs produites par la TAN, nous souhaitons ici utiliser les outils de la stylistique de corpus afin de déterminer l'existence potentielle d'une stratégie personnelle à chaque traducteur : est-il possible, comme Mona Baker (2000) le fait pour les bio-traducteurs, de repérer des schémas linguistiques récurrents, qui montreraient un usage particulier du langage ? Les stratégies des différents systèmes de TAN seront comparées à celles d'un traducteur humain, afin de tester une nouvelle mesure de cohérence : il ne s'agit pas d'étudier la cohésion référentielle et les réseaux anaphoriques à l'œuvre dans un texte littéraire, mais bien de comprendre si la machine est capable de faire entendre une voix consistante.

 

Helene Buzelin Université de Montréal

Les technologies de la traduction d'édition – Enquête auprès des professionnels du Québec

Au cours des dernières décennies, les industries du livre et de la traduction ont connu des bouleversements. Dans les années 1990, les mémoires de traduction ont fait leur entrée (durable) dans les cabinets de traduction et dans les formations universitaires. Au même moment, le livre amorçait sa « révolution numérique ». Enfin, les progrès récents en TAN ont frappé de l'imaginaire réactivant de vieux mythes et suscitant parfois un « sentiment de frayeur » (Cronin 2013)dans la profession.

Quel rapport les traducteurs œuvrant pour des maisons d'édition entretiennent-ils aux technologies de la traduction ainsi qu'aux matérialités changeantes et multiples du livre ? Comment vivent-ils/elles ces bouleversements? Quels outils et supports utilisent-ils? Lesquels préfèrent-ils? Ont-ils changé leurs habitudes? À quel point et comment se sont-ils approprié les technologies qui font aujourd'hui partie intégrante du « poste de travail » de tout traducteur dit « pragmatique » ?

Si les réflexions théoriques relatives aux matérialités de la traduction abondent, les recherches empiriques donnant voix aux personnes vivant de la traduction, sont rares. Celles interrogeant les traducteurs d'édition sur ce sujet le sont plus encore, comme si l'utilisation de certaines technologies dans le domaine littéraire (la vitrine de l'édition) relevait en du tabou, de l'inconcevable. C'est dans cet esprit que nous avons réalisé entre 2018 et 2020 une enquête auprès de professionnels de la traduction du Québec œuvrant dans différents secteurs éditoriaux : de la littérature « légitime » aux livres didactiques en passant par les essais, les albums pour la jeunesse et les livres de recettes.

Dans cette communication, nous proposons de partager les résultats de la vingtaine d'entretiens semi-structurés conduits auprès de ces professionnels. Les réflexions couvriront plusieurs des questions énoncées dans l'appel : la transférabilité des pratiques de traduction pragmatique en littéraire, la façon dont la TA et la TAO modifient le rapport au texte, la collaboration de l'humain et de la machine et les attitudes des éditeurs, telles que perçues par ces traducteurs, vis-à-vis de ces technologies de la traduction. Nous verrons que les expériences de travail sont variées et les réalités complexes, défiant les idées reçues et, parfois même, les hypothèses les plus rationnelles.

 

Isabelle Chauveau, Loïc De Faria Pires - Université de Mons

La post-édition de TAN en classe : antithèse de la traduction littéraire féministe ?

Cette proposition concerne une étude pluridisciplinaire liant enseignement de la post-édition et traduction littéraire féministe. La littérature peut être considérée comme un vecteur de construction identitaire des femmes (Fourgnaud, 2017 : 5). Cela semble être particulièrement vrai pour les contes de fées (Schanoes, 2014 : 1). Dès lors, la traduction genrée de telles œuvres doit permettre aux récepteurs et réceptrices du texte cible de profiter pleinement desdites œuvres en langue cible. Or, les biais de genre semblent être un problème de TA fréquent (Rabinovich et al., 2017 : 1074 ; Prates et al., 2019 : 1), indépendamment des paires de langues et des moteurs (Stanovsky et al., 2019 : 1679). Ainsi, des biais de genre, lorsqu'ils ne sont pas correctement post-édités, conduisent à la discrimination des femmes (Vanmassenhove et al., 2018 : 3003).

Nous avons mené une étude pratique auprès de 60 étudiants et étudiantes en traduction de première année de Master à l'Université de Mons. Nous leur avons fourni un extrait de 300 mots de la réécriture féministe du conte de Barbe-Bleue, intitulée The Bloody Chamber et signée Angela Carter (1979). Cet extrait a été traduit automatiquement en français par deux moteurs commerciaux: Google Translate et DeepL. Il a été demandé à la moitié de la cohorte de post-éditer la version DeepL et à l'autre moitié, la version Google Translate. Au préalable, nous avons établi une liste des biais de genre pertinents produits par les deux moteurs. Nous avons ensuite analysé la manière dont les étudiants et étudiantes ont post-édité ces éléments. Enfin, les élèves ont rempli un questionnaire lié aux stratégies de PE mises en œuvre.

Durant notre communication, nous présenterons les données obtenues à partir de ces questionnaires, données mises en perspective avec les textes post-édités, afin de déterminer si les contenus produits par les élèves correspondent à leurs stratégies déclarées. Nous déterminerons aussi si l'un des deux moteurs amène les élèves à produire de meilleurs textes (en ce qui concerne le genre) que l'autre. Enfin, nous conclurons par une série de perspectives d'avenir liées aux questions de genre dans le domaine de la post-édition de la TAN.

 

Isabelle Collombat, Hanna Martikainen Université Sorbonne Nouvelle - Clesthia, Langage, systèmes, discours EA 7345

Quelle place pour la traduction outillée dans la sphère littéraire ?

L'avènement de la traduction automatique (TA), surtout neuronale, et le spectre de son application à la sphère littéraire donnent lieu à bon nombre de « diatribes passionnées » et alimentent la crainte de voir l'ordinateur « nous voler notre travail » (Hadley 2020 : 14). Les traductaires littéraires redoutent ainsi de voir leur métier aussi profondément métamorphosé que celui de leurs collègues œuvrant en traduction pragmatique, et de voir les impératifs commerciaux et la méconnaissance du rôle des traductaires obérer la qualité des œuvres traduites, au risque de voir se creuser un écart de prestige entre les différents genres littéraires.

Nous verrons qu'il convient d'aller au-delà des simples réactions de néophobie conduisant au rejet instinctif de la nouveauté et à la peur du changement pour exposer les raisons qui militent en faveur de la défense de la biotraduction dans la sphère littéraire ; si, en effet, la TA peut être utilisée avec succès pour la traduction de textes informatifs, il semble illusoire de vouloir l'appliquer à la traduction de textes expressifs, ce type de textes engageant la sensibilité depuis l'émission jusqu'à la réception, ainsi qu'une certaine vision de la créativité et de l'intentionnalité, que nous développerons.

Se pose alors la question de la traduction dite « outillée », c'est-à-dire recourant à l'écosystème numérique familier aux traductaires pragmatiques, en traduction littéraire : si certains outils peuvent être utiles et augmenter les potentialités créatives, permettant notamment d'affiner le style, d'autres présentent une ergonomie cognitive peu propice à la liberté interprétative. À l'heure actuelle, l'intervention de la machine dans le processus de traduction créative est ressentie comme une contrainte. Pour sortir de la dynamique actuelle, nous appelons à repenser l'approche outillée en traduction littéraire, à l'image de ce qui se fait dans d'autres domaines, pour que l'outil soit au service de la créativité en traduction et non un frein à celle-ci.

 

Manon Hayette - Université de Mons - ChinEAsT, FTI-EII

Les nouvelles technologies se bornent-elles à « ajouter des pattes à un serpent » ? De l'apport des TAO et de la TA dans la traduction des chengyu du chinois

Les unités phraséologiques (UP), connues pour être fortement liées à leur langue-culture d'origine, constituent une pierre d'achoppement pour les traducteurs littéraires. Ces difficultés étant notamment dues au manque d'outils optimaux, on peut se demander si les nouvelles techniques recourant à l'IA pourraient résoudre ce dilemme.

Notre communication abordera les chengyu, UP les plus distinctives du chinois (Conti, 2019 ; 2020, p. 412), dont les caractéristiques inhérentes — figement relatif, schéma quadrisyllabique, fluidité fonctionnelle — compliquent singulièrement la traduction.

Dans notre étude, nous nous servirons d'un corpus littéraire parallèle (ZH-FR) préalablement compilé et analysé par Henry (2016) dans sa thèse et reprenant quelques œuvres des auteurs chinois contemporains 高行健 Gao Xingjian, 莫言 Mo Yan, 苏童 Su Tong et 余华 Yu Hua. L'extraction automatique des phrasèmes chinois étant particulièrement malaisée (problèmes de segmentation), nous reprendrons les chengyu précédemment isolés manuellement par Henry. En premier lieu, nous observerons la traduction des chengyu dans des corpus parallèles (ZH-FR) tels que le The Lancaster Corpus of Mandarin Chinese (Xiao et McEnery) et OPUS2 (SketchEngine). Ensuite, nous examinerons les traductions de ces mêmes UP passées au crible de divers logiciels de traduction automatique (GoogleTranslate, DeepL, Bing Microsoft Translator, 百度翻译 Baidu Fanyi, 云译 Cloud Translation). Enfin, nous montrerons comment exploiter également au mieux, par croisement avec les données dégagées par les corpus, les fonctionnalités de dictionnaires bilingues en ligne (tels que Pleco, 法语助手 frdic.net, 萌典 moedict.tw), pour proposer des améliorations dans la traduction.

Ces analyses, que nous confronterons au modèle de critique de la traduction des chengyu appliqué par Henry (et dont nous évoquerons les limites), contribueront à alimenter la réflexion sur l'apport éventuel de la TAO et de la TA à la traduction littéraire ZH-FR et à sa critique.

 

Daniel Henkel Université Paris 8 Vincennes St. Denis - TransCrit EA1569

A Corpus-based Study of Target-language Norms/Deviation in Human and Machine Translation 

This is the first large-scale corpus-based study of both human and machine literary translation.

Original works and translations which were both in the public domain (late 19th-early 20th c., ca.1865-1930) were collected on a 1-work/author-translator basis so as to produce a “bidirectional” (Johansson 2007) corpus consisting of 4 subcorpora: Original English (35 authors, 3.5 m. words), Original French (35 authors, 3.4 m. words), English-translated-from-French (35 translators, 3.3 m. words) and French-translated-from-English (35 translators, 3.7 m. words). All source/target pairs were aligned at sentence-level and tagged for part-of-speech and lemma with TreeTagger. At 140 authors/translators and over 14 m. words total, this is currently the largest bidirectional, aligned, linguistically-annotated corpus of English and French and the largest English/French literary corpus. All original texts were translated a second time in late 2021-early 2022 using the latest neural-MT version of DeepL Pro.

The bi-directional model allows comparisons to be made, not just between source- and target-texts, but between Original English and English-translated-from-French. The statistical comparison between authors and translators in the same language has demonstrated that, in many respects, human-translated texts display a combination of interlinguistic interference or “translationese” and interlinguistic influence or “shining-through” and thus deviate from target-language norms enough to be considered as a distinct “sub-species”.

The inclusion of machine-translated target-texts then allows further comparisons to be made between human translators and MT. Whenever deviation from target-language norms is observed in the corpus of human-translated target-texts, it can be seen that MT likewise has learned to imitate human translators, rather than authors, or is at least subject to the same interlinguistic interference and influence. Moreover, basic metrics such as source/target-length ratio show that MT exhibits less variation than human translation, which may be construed as a rough indicator of the level of creativity or “freedom” with respect to the source-text.

Daniel Henkel is an Associate Professor at Paris 8 University, where he teaches Computer-Assisted Translation and Terminology, and translator of scientific articles. His research in Contrastive Linguistics and Translation makes use of corpora and statistical methods to evaluate interlinguistic influence and interference in translation and assist human translation through electronic resources.

 

Bartholomew Hulley - Université de Lorraine : EA2338 - Interdisciplinarité dans les Etudes Anglophones - Interdisciplinarity in English Studies

Using NMT to measure bio-translator style

In the past, texts output by machine translation engines (SMT and NMT based) have been evaluated by comparing them with ‘gold standard' bio-translations. This practise has led to the formulation of numerous metrics that purport to reflect the accuracy of the machine translated text, by quantifying the number of disparities, or ‘errors', between the two. Acronyms such as WER, TER, HTER, BLEU and NIST have therefore become familiar to those researching machine translation tools. However, it is worth recognising that such metrics are not wholly objective because they rely upon human subjectivity to define what constitutes an error-free translation. Until a truly objective way of automatically measuring translation quality is devised, any metric involving human judgement will inevitably be imperfect. Any system based on the notion of a singular ‘gold-standard' translation therefore risks classifying perfectly acceptable translations as erroneous.

In this context and given the widely recognised and increasing reliability of NMT, it seems logical that a certain amount of objectivity would be restored into the practise of textual analysis if the subjects concerned were reversed. That is, instead of using a bio-translation to measure a machine translation, to do precisely the opposite: to use a machine translation to measure a human generated TT. Indeed, considering that an NMT engine will translate according to ‘learned' paradigms with complete disregard for extra-linguistic contexts (such as style, purpose and function - meaning it will tackle every ST in precisely the same manner), it thereby offers a dynamically ‘fixed' baseline from which to measure one or many human generated TTs.

In a case study analysing English translations of awards-nominated French comics titles, I demonstrate how applying this rationale can offer the researcher a measure of the translator's approach to any given text and enable the objective comparison of one translator with another.

 

Miguel A. Jimenez-Crespo Rutgers University System

General features of human translation in the age of machine translation: an additional perspective on what makes human translations highly creative

Recent research into creativity and machine translation in literary texts (e.g., Moorkens et al 2018; Guerberof and 2020, 2022) has opened up the field to the study of specific features of human translations that are not shared with machine translated texts. Among the different features that can have an impact on creativity, this paper focuses on the impact of “translations universals” (Baker 1993, 1995) or “general features of translation” (Chesterman 2004). For years, research into these “general features of translation” have provided insights into features of translated texts independent of the language direction that separate them from non-translational or original texts. The origins of this research area go back to the study of translated literary texts, such a children's stories by Gellerstam (1986) or literary translations in the Translational English Corpus (Baker 1995, 1996; Kenny 1998). With an eye on discovering how MT or post-edited texts differ from those translated by humans, studies have described how these texts lack certain features associated to lower levels of creativity, such as interference (Toral 2019; Popovic 2019; Kuo 2019), simplification/ normalization (Lipshinova-Koltunski 2015) or low lexical diversity (Brglez and Vintar 2021). In addition, NMT also produces highly literal translations that lack the lexical or referential explicitation (Lipshinova-Koltunski 2015; Ahrenberg 2017; Kuo 2019; Kruger 2021, 2022), one of the most common features of human translations and a potentially creative strategy. This paper critically reviews existing contrastive studies on the general features of translated language to put a focus on the “added value of human translation” (Massey and Ehrensberger-Dow 2017: 308) and how Corpus-Based Translation Studies can shed light on the debate on creativity in this area. This represents an additional perspective to fully what make human translation different, unique and highly creative. Examples will be provided from the multitranslational corpus of translated creative published in digital media, alongside the Google NMT “See Translation” integration in Twitter tweets (Jimenez-Crespo 2021, 2022). In doing so, the paper will offer insights into distinguishing features of creativity in published translations that are absent machine translated texts.

 

Waltraud KolbUniversity of Vienna

"Quite puzzling when I first read it”: Is reading for literary translation different from reading for literary post-editing? 

Translating and post-editing literary texts are widely considered to be two quite different translatorial activities, not least by literary translators themselves who tend to feel constrained by machine translation output (e.g., Moorkens et al. 2018) or see their “artistic autonomy” at risk when post-editing (Oeser 2020, 23).

One of the most obvious differences is that in the case of post-editing the MT system provides the first draft, while in human translation translators have to invest considerable effort in drawing up a first version. This (human) drafting phase (Mossop 2000) is usually the phase in which the bulk of research occurs and the translator's (creative) engagement with the source text is the most intense. One significant part of this engagement with the source text is the act of reading. Is “reading for translation” different from “reading for post-editing”?

In my presentation, I will use translation process data (think-aloud protocols and keylogs) from an empirical study in which five professional literary translators translated a short story by Ernest Hemingway into German and five different literary translators post-edited a first draft generated by DeepL. I will first outline differences in task organization and workflow patterns between the two groups of participants (some results relating to workflow patterns of the group of translators have been published in Kolb 2017) and then zoom in on the participants' reading processes. Drawing on cognitive stylistics and narratology frameworks (Herman 2003; Boase-Beier 2019), I will show how translators and post-editors develop narrative understanding of the story, the characters, and the worlds evoked by the source text; how they infer meaning from the text and its style and, for example, fill in blanks and gaps during their readings; and how differences between reading processes may be reflected in the final target texts.

 

Philippe Lacour - Campus Universitário Darcy Ribeiro - Universidade de Brasilia

Les trois limites structurelles de l'Intelligence Artificielle

Je m'efforce d'identifier et de distinguer trois limites structurelles de l'Intelligence Artificielle, liées respectivement au calcul, à l'approche probabiliste et à la modélisation. D'abord, je montrerai que la notion de calcul ne s'applique que difficilement au domaine des significations, parce qu'elle se heurte à certaines « limitations internes » aux symbolismes formels (Ladrière) ; autrement dit, si le calcul est bien une pensée, toute pensée ne prend pas la forme d'un calcul. Ensuite, j'insisterai sur la différence, dans les sciences de l'aléatoire, entre probabilité et fréquence (statistique) – différence souvent implicitement réduite, sinon niée, dans les approches conjecturales, lorsque le raisonnement passe subrepticement de ce qui a effectivement eu lieu (dans le passé) à ce qui est susceptible d'advenir (Granger). Enfin, je soulignerai que toute modélisation d'un phénomène signifiant est à la fois légitime et strictement encadrée par un certain nombre de contraintes, que ce soit dans le mouvement aller de constitution des données à partir du réel signifiant ou dans le mouvement retour de leur application à ce même réel.

Ces trois remarques nous rappellent d'abord que, selon son projet initial (aujourd'hui largement oublié), l'IA ambitionne avant tout de mieux comprendre l'intelligence humaine et non de s'y substituer. Elles pointent aussi, plus profondément, en direction d'un présupposé tenace qui fait de l'automatisation un équivalent de la technologie, au détriment d'autres possibilités, nombreuses et riches, d'interaction avec les machines (Simondon).

Je tire enfin de cette réflexion quelques conclusions touchant l'avenir de la traduction littéraire, à l'ère de la traduction automatique neuronale et de la post-édition. Il est douteux que celle-ci puisse se substituer sans reste aux traducteurs humains, pour les trois raisons évoquées. Il est beaucoup plus vraisemblable qu'apparaisse de nouveaux types de collaboration entre des machines et des collectifs humains, fondés sur des processus d'assistance, de suggestion, de comparaison et d'interprétation.

 

Claire Larsonneur Université Paris 8 – Vincennes – Saint-Denis - TransCrit 

Une IA peut-elle être un auteur littéraire ? le cas des modèles de langues

Le propre des technologies d'intelligence artificielle est qu'elles peuvent s'appliquer à toutes sortes de domaines, une fois convertis en données. La traduction neuronale s'inscrit dans un continuum d'outils linguistiques : conversion du texte en parole et vice versa, frappe prédictive etc. Toutes ces facettes du traitement des langues par la machine sont mobilisées dans ce qui pourrait être la prochaine étape de l'intelligence artificielle linguistique : les modèles de langue. Si les noms de BERT ou d'ELLMO sont peu connus du grand public, le lancement de GPT-3 à l'été 2020 en a fait parler de lui dans la presse, parce qu'il s'agit d'un projet commun entre Microsoft et Elon Musk, mais aussi du fait de la puissance de l'outil. Les modèles de langue se distinguent en effet par leur versatilité. Ils peuvent, à partir de quelques éléments initiaux fournis par des humains, rédiger de manière autonome toutes sortes de contenus : des résumés, des diagnostics médicaux, des essais philosophiques, des nouvelles, des programmes informatiques. Ceci est rendu possible par une puissance de calcul pour le moment réservée à quelques très grands groupes, et par la complexité du modèle qui va jusqu'à traiter plusieurs centaines de millions de paramètres. Après une brève évocation de l'historique de ces outils, je voudrais analyser plus en détail le type de production littéraire qu'ils génèrent en revenant sur plusieurs exemples dans les domaines du journalisme, des jeux de rôle en ligne, et du théâtre. Il sera ensuite question d'aborder la réception de ce type d'œuvre et se demander comment elles se positionnent dans l'économie de la culture, entre performance et commercialisation.

 

Bruno Poncharal - Université Sorbonne nouvelle - EA 4398

La TAN à l'épreuve de la cohérence discursive

Malgré les progrès spectaculaires réalisés au cours des toutes dernières années, les systèmes de TAN actuels rencontrent leur limite dans le fait qu'ils traduisent généralement à l'échelle de la phrase ; autrement dit, sans pouvoir tenir compte du co(n)texte, ce qui va entraîner des problèmes de cohérence textuelle. Par ailleurs, les traducteurs professionnels et les traductologues s'accordent à dire qu'on ne traduit pas des " phrases " — ni des " mots " — mais des " textes ". On pourrait, dans un premier temps, définir un texte comme une suite cohérente de phrases, cette cohérence discursive dépendant elle-même en grande partie de relations anaphoriques complexes, souvent spécifiques à une langue donnée. La littérature sur le fonctionnement des relations anaphoriques dans une variété de langues est abondante, mais il y a eu peu de recherches contrastivistes dans ce domaine. Ma propre pratique de la traduction (de l'anglais vers le français), en particulier des textes de sciences humaines et sociales (non-fiction), m'a appris que la manière dont s'organisent les relations anaphoriques à l'échelle d'un texte n'est souvent pas transposable d'une langue à l'autre. Ce phénomène est rendu d'autant plus sensible dans les textes de SHS où l'argumentation ou la démonstration tiennent un rôle central.

D'autre part, certains phénomènes caractéristiques des textes littéraires tels que le discours indirect libre et la perception représentée posent souvent des problèmes de traduction car ils résultent d'une combinaison instable de marqueurs linguistiques impliquant des anaphores temporelles et (pro)nominales complexes. Que les passages en DIL puissent échapper à un œil non averti suggère qu'une machine aura encore plus de difficultés à les identifier et à les traduire avec précision.

Notre étude s'appuiera donc sur quelques exemples tirés des deux types de texte que nous avons évoqués, afin de montrer précisément à quels points de ces textes les traducteurs automatiques achoppent.

Nous montrerons également comment la comparaison de la TAN avec la bio-traduction peut nous aider à mieux comprendre ce que signifie réellement lire et comprendre un « texte », alors même que les spécialistes eux-mêmes admettent que la machine ne comprend pas.

 

Mehmet Şahin, Tunga Güngör, Ena Hodzik, Sabri Gürses , Zeynep Yirmibeşoğlu, Harun Dallı, Olgun DursunBogazici University

Literary Machine Translation to Produce Translations that Reflect Translators' Style

In our presentation, we will be reporting on a research study* that involves building an English-Turkish machine translation (MT) model to translate literary texts whose style has been defined using corpus tools. We aim to determine the extent to which an MT system can reproduce a translator's style if it is trained on a corpus of previous translations by the same translator. Our presentation will focus on the following questions: 

Does corpus stylistics allow us to better study the style of the translator?  

Can we teach machines to replicate a translator's style?  

To answer the first question, we adapted Leech and Short's (2007) methodology of literary style analysis to Turkish and used AntConc (Anthony, 2022) and WordSmith (Scott, 2021) as corpus visualization tools to analyze the style of a particular English-Turkish translator both qualitatively and quantitatively (Youdale, 2019).  Our preliminary findings suggest consistent use of particular lexical and morphological forms as discourse markers. Our corpus analysis findings will be presented against a reference corpus representing Turkish literary translations between 1946 and 2015 in order to determine whether the stylistic features we identified are exclusive to our translator or general linguistic phenomena.  

We have also applied text classification methods used in authorship attribution to identify different translators. One key question here is how these classifications are affected when two variables, namely author and translator, are involved instead of only the author.  

To replicate a translator's style in machine translation, we built several machine translation models based on both LSTMs and transformers. We are using our own datasets consisting of chosen translators alongside publicly available bilingual corpora. We will conclude our presentation with the initial findings and implications for our future work.

*The study is part of a scientific research project funded by TÜBİTAK (the Scientific and Technological Research Council of Turkey). The title of the project is “Literary Machine Translation to Produce Translations that Reflect Translators' Style and Generate Retranslations” and its grant number is 121K221.

 

Anna Schewelew - University of California, Santa Barbara

“Pushkin Need Not Shudder”: Machine Translation and Poetic Language

In his 1949 memorandum on Machine Translation, Warren Weaver famously outlined the idea that computers could be used to translate. Yet Weaver explicitly excluded literary texts as a use case for machine translation because literature is the locus of the “alogical elements in language” (Weaver 1949) that cannot be transformed into mathematical terms and thus defy automation. Weaver's “reverence” for literary translation is remarkable because it suggests that understanding literary texts as art, that is beyond their merely propositional content, is out of reach for “intelligent” language processing machines. While machine translation has come a long way since 1949, I argue that it is still ill equipped to tackle poetic language because poetic language transforms linguistic structures into aesthetic objects that cannot simply be reduced to a statistical distribution of words because their meanings are also derived from their sound, graphic appearance, their “mouthfeel”. To understand and translate literature, it is not enough to understand and translate a distribution of words. It is equally important to understand and translate a distribution of words as aesthetic objects. In order to translate literature properly a machine translation system would thus need to be able to switch from a “logic” mode to a “sense” mode and vice versa – something that is very much out of reach for contemporary machine translation systems that can process quantifiable data only. Finally, by looking at contemporary neural machine translation systems through the lens of Schleiermacher's theory of translation, I show that – if literary texts are to encode novel, multilayered ways of speaking about the world, as Schleiermacher suggests – machine translation alone must fail to recreate this novelty because due to its reliance on distribution probabilities within large corpora of texts it is can reproduce what has already been said over and over again.


Kristiina Taivalkoski-Shilov, Paola BrusascoUniversité de Turku

MT as a Re-editing Aid? Revising the Finnish and Italian translations of Silent Spring and The Job with the help of DeepL 

Neural networks and deep learning applied to translation software have been yielding more and more adequate outputs, characterized by such fluency that even literary texts are being experimented with as potentially machine translatable (cf. Toral & Way 2018; Kuzman et al. 2019; Oliver, Toral & Guerberof 2019; Toral et al. 2020, among others). Fascinating as it is, the possibility of literary texts translated by software does not sit comfortably because of the threat is poses to translators and to one of the most typically human characteristics – creativity. It seems reasonable, therefore, to try and avail oneself of the possibilities offered by machine translation (MT) in a way that would still leave the translator in control of the process. To do so, we envisage MT as a tool to support the translator in the very specific case of revision, i.e. “editing, correcting or modernizing a previously existing translation for re-publication” (Koskinen & Paloposki 2010/2016).

Our contribution focuses on two texts originally written in English – R. Carson's Silent Spring (1962) and S. Lewis' The Job (1917) – translated into Finnish and Italian in 1963 and 1955 respectively. Since the topics – environmentalism and working women's difficulties – are still relevant, while the language may have aged or, as is the case with the Finnish version, may not have succeeded in recreating the style of the source text, we are envisaging new translations carried out with the aid of MT. Our study is an experiment to ascertain a) whether selected strings of the machine output can be effectively incorporated in the unsatisfactory parts of the first translated versions and b) if not, what kind of editing would be required. Two chapters have been selected from each text to be translated – Silent Spring into Finnish and The Job into Italian – with a generic web-based system, DeepL, and the resulting outputs are discussed from the point of view of their usability for the purpose mentioned above.

 

Samuel Trainor - Université de Lille - Centre d\'Études en Civilisations Langues et Lettres Étrangères (CECILLE) - EA 4074

Mixing Human and Nonhuman Translation: Neurodiversity and the Sociology of Inclusion in Contrapuntal Translation Practice

In Bruno Latour's essay "Mixing Humans and Nonhumans Together: The Sociology of a Door-Closer” (1988), he proposes the term “transcription” to refer to the “translation of any script from one repertoire to a more durable one”, such as the replacement of a police officer with a set of traffic lights.

This paper calls into question this paradigm of social replacement as it relates to NMT. Latour's metaphor derives from an instrumentalising misrepresentation of translation. It is hardly surprising that current debates surrounding machine translation are haunted by its spectre. The majority of NMT platforms are designed to work autonomously, even when they incorporate responsive learning. They are also invariably ‘domesticating'. Their designers want them to pass a Turing Test: producing simulacra of human translations capable of convincing a reader they were written by an accomplished native speaker. This is classic translatorial ‘invisibility'. Anyone with a grounding in translation theory can unpick the basic premise. However, this paper suggests that translation professionals feeling threatened by NMT should avoid abstruse theoretical objections, or appeals to human creativity, and promote the ethical case for a more inclusive, ‘neurodiverse' translation practice.

What separates ‘inclusion' from ‘accessibility' in social policy is the involvement of a variety of target users at an early stage of conception. The growing influence of artificial neural networks in our societies is redefining the concept of neurodiversity, potentially rendering all humans neurodivergent. So the argument for early-stage ‘biotranslation' (not merely in post-editing) has become an ethical question of inclusion. A key contention is that NMT cannot be discussed in isolation from other technologies and their social and ecological impacts. Inclusive working methods are significantly boosted by technological platforms for collaboration. Meanwhile, similar technologies are making literary publishing increasingly multimodal and interactive. But all of this comes at a cost. If NMT could be moved away from current paradigms of replacement, made ecologically more sustainable and methodologically more open and plural – in particular if it could be integrated into technologies that enable interaction, working polyphonically in collaboration with biotranslators – then it could become genuinely valuable in literary translation.

 

Jean-Louis Vaxelaire Université de Namur 

Traduire un texte ou des suites de syntagmes ? La traduction automatique entre le turc et le français

Ray Kurzweil, l'une des figures principales du monde de l'informatique, avait annoncé en 2011 qu'il n'y aurait plus de besoin de traducteurs dès 2029. Il émettait toutefois une exception pour la traduction littéraire qui était, selon lui, déjà difficilement réalisable par les humains. Depuis, avec l'avènement de la TA neuronale, des équipes de recherche (chez Microsoft et Google par exemple) affirment avoir dépassé la qualité des traductions humaines. Du point de vue linguistique qui est le mien, ce type de discours triomphant montre principalement une méconnaissance des langues et du processus traductionnel.

Une analyse des exemples de TA présentés dans les travaux de recherche démontre que, certes, ils sont parfois excellents mais ils concernent toujours l'anglais comme source ou cible et, ensuite, le genre textuel du passage traduit est toujours proche du matériau d'entraînement. Dès que l'on traduit entre des langues qui n'incluent pas l'anglais et dans des genres éloignés du corpus originel (la palette est large de l'écrit oralisé de Facebook aux textes littéraires), les résultats sont bien moins satisfaisants.

Dans un premier temps, nous observerons les problèmes théoriques qui expliquent les difficultés que rencontre la TA puis, dans un second, nous analyserons les résultats de quelques extraits de textes de poésie et de prose turcs (entre autres Karaosmanoğlu, Hikmet, Dağlarca, Baykurt et Pamuk) en français et nous les comparerons avec les traductions officielles. Les résultats varient selon les quatre outils de traduction utilisés (Google Traduction est en règle générale supérieur à Webtran), mais posent différents types de problèmes qui s'expliquent souvent par le fait que, contrairement au traducteur humain, le logiciel n'a pas une vision globale du texte et le traite comme des suites de phrases sans lien les unes avec les autres. La question du genre, essentielle en littérature, n'est non plus jamais prise en compte.

 

 

 

 

 

 

 
Personnes connectées : 3 Vie privée
Chargement...