Nederlandse Taalunie organiseert enquête over kennis Nederlands van vertalers


Enquête taalvaardigheid Nederlands van vertalers

Vertaaldiensten merken dat de taal van de nieuwe generatie vertalers verschilt van die van vorige generaties; woordenschat, stijl en register die jonge vertalers gebruiken, sluiten niet altijd aan op de veeleisende beroepspraktijk. Daarom wil de Taalunie samen met de vertaalsector en het vertaalonderwijs nadenken over de taalvaardigheid Nederlands van vertalers, en over de aansluiting tussen opleiding en beroepspraktijk. Als eerste stap willen wij u graag vragen om deze enquête in te vullen. Dit duurt ongeveer 10 minuten.

Ga naar de enquête

De resultaten van de enquête zullen we op de website van de Taalunie publiceren. Ook worden de resultaten gebruikt ter voorbereiding van een expertbijeenkomst rond dit onderwerp die de Taalunie samen met ITV Hogeschool voor Tolken en Vertalen, de Universiteit Utrecht en het Platform Taalbeleid in het Hoger Onderwijs organiseert op 27 juni 2019.

Als u vragen of opmerkingen hebt, kunt u contact opnemen met Folkert de Vriend, Fedde van Santen of Gys-Walt van Egdom

Iate geeft u extra mogelijkheden

Message on Iate – Bericht op Iate – Message d’Iate

Please note that the possibility to search by URL in the new IATE is now available, together with a permanent link to the full entry view by friendly ID. See details under ‘IATE for developers’ in the footer.

Het is nu mogelijk om met de nieuwe IATE te zoeken met een URL naar Iate, en om een permanente link te gebruiken naar de volledige invoerweergave met een ID. Details onder “Iate for developers” in de balk onderaan.

Today on IATE

Today on the site Iate: InterActive Terminology for Europe, there is a banner at the bottom which reads:

The IATE partners are glad to announce the opening of the new version of IATE. The current version will be replaced with a fully revamped version the week of 12 November. We take the opportunity to thank you for your continuous use of IATE and look forward to better serving your needs with the new version.

Iate is a renowned European website for the translation of terminology in various fields to all official European languages.
Although it’s database is not complete, it is often used to provide official translations which are valid for the whole of the European Union.


Switch to for more information.

Will AI make translation an obsolete craft?


Sometimes people use Google Translate to understand a website. And some people think something exists like computer programs which spew out translations without any hassle. It makes look translators as old fashioned craftsman who at best have a workshop in a tourist center or during an arts & crafts exhibition.


Does that image suit reality?


As Artificial Intelligence is on the rise, some people proclaim the death of the translator in ten or maybe even five years time.


But as a matter of fact, Artificial Intelligence is not something which will pop up all at a sudden. It has been influencing daily practices since the nineties, maybe even earlier.

Research into artificial translation or machine translation started as early as 1949, but as is often the case with IT, the name promises more than it delivers. Early applications did nothing more than automatically looking up words in an automated dictionary.


Some historians claim that the idea of machine translation may be traced back to the 17th century, when in 1629 René Decartes proposed a universal language, which would share one symbol in different tongues for equivalent ideas. But the actual field of “machine translation” appeared only for the first time in ‘Memorandum on Translation’ by Warren Weaver in 1949. Research started in 1951 at MIT by Yehosha Bar-Hillel. And in 1954 there was a surprising demonstation at Georgetown University when the Machine Translation research team showed off its Georgetown-IBM experiment system in 1954. As computers’ power increased, so did the results of artificial translation. But real progress was rather slow, and after the ALPAC Report of 1966 found that the ten-year-long research had failed to fulfill expectations, funding was greatly reduced. However, in 1972 a report by the Director of Defense Research and Engineering (DDR&E) reestablished the feasibility of large-scale MT because of the success of the Logos MT system in translating military manuals into Vietnamese during that conflict. And so again, war made progress (that is ironic).


So, considering the early starting date of the research at about 1949, probably induced by the advent of computers during the Second World War, progress was actually very slow. The problem is whether the computer program can actually understand human language, and whether that understanding is necessary to be able to translate.


Some would argue “yes”, and they try to find the rules which govern human language. Interesting in that respect was transformational-generative grammar or TGG. It’s philosophy is that human beings have a set of rules in their heads which forms meaning into meaningful sentences. So an English speaker would have a rule which puts the verb immediately following the subject, whereas a Japanese speaker would have a rule putting the verb at the end of the sentence.


Fact is, however, that you still have to be able to make the computer program to be able to grasp the meaning of what it has to say. But it is not the computer translation program building up the message to be translated. The message is already given in the source text.

To a certain degree, that simplifies matters: the program only has to be able to transform a message from a source text into a target text, in which source and target contain the same content, but encoded in different ways.


That’s, of course, an idea which appeals to programmers. You take a source, use TGG to derive it’s inner structure or deep structure, and use TGG of another language to build up a new surface structure. As simple as that.


It seems to be the most intelligent way to deal with artificial translation, but linguistics themselves are not always sure about the rules which one should put into TGG. And, anyway, TGG is meant to go from deep structure to surface structure, not the other way around. So, that leaves us with the problem of the analysis of the source text. All TGG rules have to be “reversed” or “inversed”.


Although there are a lot of other ways to deal with automatic translation, not all of them could be implied from the very beginning. The advantage of a TGG based translation system was the promise of using rules in a way a human being processes language – or is thought to process language – thereby limiting the amount of memory. Rules, as in maths, provide a way to apply knowledge without a big knowledgebase. Compare having to learn al multiplications starting with the table of 1 till the table of 10, or only having to know the rule that you add up a number as many times as you want to multiply it.


Most machine translation systems try to apply rules, but not all do to the same degree. As a matter of fact, the terms ‘machine translation’, ‘automatic translation’, ‘artificial translation’ and so on, are not interchangeable.


The main rule-based machine translation (RBMT) paradigms are further classified in three types: transfer-based machine translation, interlingual machine translation and dictionary-based machine translation paradigms.


RBMT involves more information about the linguistics of the source and target languages. The basic approach uses a parser for the structure of the source sentence and an analyzer for the source language, and then applies a generator on that information to generate the target sentence, with a transfer lexicon for the translation of the words.


However, RBMT demands that everything is be made explicit: orthographical variation and erroneous input must be made part of the source language analyser in order to cope with it, and lexical selection rules must be written for all instances of ambiguity. Adapting to new domains in itself is not that hard, as the core grammar is the same across domains, and the domain-specific adjustment is limited to lexical selection adjustment. But, of course, that’s all from a theoretical point of view.


Another way is transfer-based machine translation. It creates a translation from an intermediate representation that simulates the meaning of the original sentence. Unlike interlingual MT, it depends partially on the language pair involved in the translation.

The third method, interlingual machine translation, is a kind of rule-based machine-translation. The source language is transformed into an interlingual language. That is a ‘language neutral’ representation that is independent of any language. The target language is then generated out of the interlingua. One of the major advantages of this system is that the interlingua becomes more valuable as the number of target languages it can be turned into increases. However, the only interlingual machine translation system that has been made operational at the commercial level is the KANT system (Nyberg and Mitamura, 1992), which is designed to translate Caterpillar Technical English (CTE) into other languages.

Using Caterpillar texts had the advantage of having an enormous load of already translated texts, and the fact that CTE is rather limited in scope: it only has to deal with technical language for heavy mobile equipment. Using it to translate other subject matters, would be disastrous.


The dictionary-based system uses a method based on dictionary entries, which means that the words will be translated as they are by a dictionary. This will make clear, of course, that a pure dictionary-based system can only give word-for-word translations, and therefore rather mediocre results – to put it mildly.


The statistical machine translation (SMT) uses bilingual text corpora. Where such corpora are available, good results can be achieved translating similar texts, but such corpora are still rare for many language pairs. Google switched to a statistical translation method in October 2007. In 2005, Google improved its internal translation capabilities by using approximately 200 billion words from United Nations materials to train their system, and the translation accuracy improved. Google Translate and similar statistical translation programs work by detecting patterns in hundreds of millions of documents that have previously been translated by humans and making intelligent guesses based on the findings. Generally, the more human-translated documents available in a given language, the more likely it is that the translation will be of good quality. However, it turned out this is not always the case, rather to the surprise of Google. Newer approaches into Statistical Machine translation use minimal corpus size and instead focus on derivation of syntactic structure through pattern recognition, which puts higher stress on artificial intelligence. SMT’s biggest downfall includes it being dependent upon huge amounts of parallel texts, its problems with morphology-rich languages (especially with translating into such languages), and its inability to correct singleton errors. Which explains why Google was disappointed. Not to mention that a typical United Nations document deals with a limited set of subjects.


Example-based machine translation is based on the idea of analogy. The corpus also contains texts that have already been translated. Given a sentence that is to be translated, sentences from this corpus are selected that contain similar sub-sentential components. The similar sentences are then used to translate the sub-sentential components of the original sentence into the target language, and these phrases are put together to form a complete translation.

Hybrid machine translation (HMT) leverages the strengths of statistical and rule-based translation methodologies. Several MT organizations claim a hybrid approach that uses both rules and statistics.


And finally a deep learning based approach is neural machine translation.

But all these methods are in some or other way hampered by several problems: ambiguity in texts, non-standard speech, names from people, places, organizations and so on, and the continuous changes in language: what’s standard today, might be substandard tomorrow, and vice-versa.


In reality all systems are in some way hybrid systems, because the output of the computer program always has to be checked by a human translator. Example-based machine translation is actually the most successful form of machine translation, because the computer program uses a big memory of previous translations to come up with suggestions, which the translator has to judge, change if necessary, and validate.


As mentioned above, forms of machine translations have a long history, and the development was slow and hampered by characteristics of human language (e.g. it’s well-know lack of sustained logic), and by technological problems, like processing speed and memory size.

The main reason computer translations seem to be on the up, is that processing speed and memory size are gradually less of a problem. It also means that the influx of all forms of automation have never given a big boom to artificial translation.


It did, however, change the nature of the work of the translator. Translation turned more and more into proofreading and editing, away from pure translation. That was a rather slow evolution, and in all likelihood, it will remain so for a very long time.



Taalmodel: vanaf komen

FOUT “We werden bijna geënterd door piraten, net buiten Ressina. Maar we zijn er met de schrik van afgekomen!”

GOED “We werden bijna geënterd door piraten, net buiten Ressina. Maar we zijn er met de schrik vanaf gekomen!”


Dit zinnetje uit “Ciudalia”, het eerste deel van de stripreeks “De oorlog winnen”, door Genêt en Jaworski, leek me een gelegenheid om het even te hebben over een lastige spellingkwestie.

Zowel “ervanaf komen” als “eraf komen” zijn juist.

Dus: “Jan is er weer gemakkelijk vanaf gekomen” en “Jan is er weer gemakkelijk af gekomen”. Hiermee wordt bedoeld dat Jan geluk heeft gehad: het is hem niet moeilijk gemaakt.

Je kunt spreken van er gemakkelijk (of: bekaaid, beroerd, genadig, goed, goedkoop, heelhuids, met lichte verwondingen, minder goed, niet slecht, zonder veel schade, zonder kleerscheuren) af komen. Maar het is ook juist om van in te voegen: er gemakkelijk (bekaaid, enz.) vanaf komen; dat lijkt tegenwoordig zelfs het gebruikelijkst te zijn.

“Ervanaf” en “eraf” staan los van komen. Het is bijvoorbeeld ook “van de trap af komen”, “van iemand af komen” en “van zijn luie reet af komen”.
In een zin als “Ik wil dat die verslagen binnenkort afkomen” is “afkomen” wél één woord.

Overigens vermeldt Van Dale (2005) bijvoorbeeld “er gemakkelijk (van) afkomen”, “van de trap afkomen” en “van iemand afkomen”.

Over deze kwestie — hoort het voorzetsel (zoals “af”) bij het werkwoord of niet? — wordt verschillend gedacht.

Wat ons betreft wordt “af” los geschreven van het erop volgende werkwoord als er sprake is van een verwijdering, ook al is die figuurlijk.

Bron: “Onze Taal”



Het ontstaan van ‘li’, 礼之源, door Wanyu Chen


Doordat Skynetblogs verdwijnt, moesten we een ander huis voor onze blog vinden.  Dat was het eerste probleem.
Maar het tweede en grootste probleem was, dat we in de loop van meer dan tien jaar her en der links naar onze blog hadden gelegd.  Dus moeten die links allemaal worden gewijzigd.

Alleen weten we niet waar dat allemaal was, en daarom gebruikten we zoekmachines om verwijzingen naar Vertaalbureau Motte te vinden.

Tot onze verbazing bleek onze blog te worden geciteerd in een verhandeling ingediend tot het behalen van de graad van licentiaat in de Oosterse Talen en Culturen aan de Universiteit Gent in het academiejaar 2007-2008.

De auteur van de verhandeling was Wanyu Chen, en de promotor was professor B. Dessein.

Het werk ging over het ontstaan van “li”.

‘li’ (礼) is een karakterschrift dat zowel in het huidige China als in Japan gebruikt wordt, en Chen Wanyu citeerde er ons blogbericht Chinees schrift van 8000 jaar oud gevonden.

De volledige verhandeling kunt u hier downloaden:
Het ontstaan van ‘li’, 礼之源, door  Wanyu Chen

Jarenlang was de afbeelding links op onze Skynetblogs trouwens een afbeelding van die oudste bekende schrifttekens:



Yoko Tsuno Integrale 2: Duitse avonturen

Het is niet de eerste keer dat we bij Vertaalbureau Motte meewerken aan strips.
Dat is vooral de “schuld” van Peter Motte. Hij heeft een grote achtergrond in strips en andere verhalende media, en won onder andere enkele prijzen voor zijn eigen verhalen.
Als vertaler-proeflezer studeert hij nog elke dag talen, en strips zijn daarvoor een geschikte oefening.
Enerzijds zijn strips een erg gebalde uitdrukkingsvorm, doordat de tekeningen veel informatie in korte tijd geven. In een roman zijn meer woorden nodig voor decors, kleding, apparaten, landschappen … Kortom: voor alles wat visueel kan worden uitgedrukt.
Anderzijds zijn strips een vreemd mengsel van taal en beeld, in tegenstelling tot film en theater, die dichter tegen de natuurlijke taalomgeving aanleunen.
Want al geven strips veel informatie in één oogopslag dankzij de tekeningen en inkleuring, ze hebben ook tekst nodig, en niet klank.
En het is precies die tekst die voor ons en vertaler-proeflezer Peter Motte de grote uitdaging vormt.
Terwijl in romans de plaats voor tekst in principe oneindig is, leggen strips veel ruimtelijke beperkingen op. Er moet karig met woorden worden omgesprongen.
Dat stelt speciale eisen aan vertalers, omdat vertalingen doorgaans langer zijn dan het origineel – overigens een merkwaardig fenomeen. En in strips mag de doeltekst niet langer worden dan het origineel, omdat alles in dat tekstballonnetje moet passen.
Sommige striptekenaars houden daarmee rekening door hun ballonnetjes wat te groot te maken, maar ze doen dat niet allemaal. Kleinere lettertypen kunnen een oplossing zijn, maar dat is niet altijd comfortabel leesbaar. Het is soms een hele stunt om een strip comfortabel leesbaar te vertalen, en toch alle informatie en gevoel van het originele werk over te brengen. Daardoor blijft het vertalen en corrigeren van strips een uitzonderlijke vingeroefening.
Vertaalbureau Motte werkte al mee aan de correcties van de stripteksten van de eerste thematische bundeling van de avonturen van Yoko Tsuno, en we mochten dat voor de tweede bundel overdoen.
De albums dateren van 1973 tot 1984, en de vertalingen waren minstens van vóór 1985. Sindsdien is de spelling al een paar keer veranderd, en dat was dus het eerste waar we op moesten letten. Maar we controleerden ook of er andere spelfouten waren, grammaticafouten, ontbrekende leestekens, en verkeerde of zelfs ontbrekende vertalingen.
Er werd ook gelet op specifieke stripkenmerken, zoals onomatopeeën. Ontbrekende onomatopeeën kunnen in strips soms verrassend belangrijk zijn, zeker bij een striptekenaar zoals Roger Leloup, die niet iets in twee plaatjes zal vertellen, als hij het in één kan doen. Ook de kwaliteit van de lettering is belangrijk: de tekst moet in het ballonnetje staan, niet erbuiten.
Maar Peter Motte lette er ook op of de technische en wetenschappelijke inhoud goed en duidelijk was overgebracht. In een sciencefictionstripreeks zoals Yoko Tsuno is dat niet zonder belang. Zoals alle sciencefiction is ook Yoko Tsuno een mengsel van feiten en fictie, en het is een evenwichtskunst om de grens tussen wetenschappelijk en technisch correct aan de ene kant en fantasie aan de andere kant te bewandelen zonder de lezers voor het hoofd te stoten.
Er wordt niet van de lezer gevraagd dat hij over alle noodzakelijke kennis beschikt, maar de schrijver moet er wel rekening mee houden dat de lezer die kan hebben. Sciencefictionstrips vertalen eist daardoor meer kennis van wetenschappelijke en technische vaktalen dan de gemiddelde strip.
Daarom doet het ons altijd genoegen als uitgeverij Ballon Media ons vraagt om de taal van de avonturen van Yoko Tsuno te controleren. En we zullen dat met veel plezier blijven doen.
donderdag, 30 november 2017
Integrale 2 brengt de Duitse avonturen samen, en bevat een thematische inleiding, in dit geval over Roger Leloup en zijn belangstelling voor Duitsland.
strips, stripverhaal, integraal yoko tsuno, integraal, duitse avonturen, dupuis

Bemoedigende afscheidsmail van een klant

translation project manager, positieve geluiden van een klant, waardering, klantentevredenheid, kwaliteitsvertalingenIn september 2017 kreeg ik een e-mail van een project manager, die ik jullie niet wil onthouden.
“Dearest XXXXX Translators,
This is my goodbye message because, after three years, tomorrow is my last day (…).
I would like to express my deep and sincere respect for the way you work and the way you are as people. You have been reminding me how significant, demanding and at the same time exciting the translation profession is. Could we imagine the world without (good) translators? 😉 Please always remember how meaningful your work is, and never underrate yourselves. You are the highest level.
During our cooperation I could unalterably rely on you, and I think that we could create kind of mutual trust and… comfortable, friendly relationship, which has been of a great importance to me and has made my work simply pleasurable. Well, working with you has been the best thing that could happen to me here.
Just not to keep that message too long (because who likes too long messages), let me finish with virtual massive thanks and the very best wishes for the future: loads of health, energy and passion! I really hope that you will remember me in a more positive than negative way. 😉
Warm wishes,”
Niet alleen toont de manager hiermee waardering voor het werk dat we drie jaar voor hen hebben uitgevoerd, maar er staat ook een opvallend zinnetje in: “Please always remember how meaningful your work is, and never underrate yourselves.” Dat is net het tegenovergestelde van zeuren om lagere prijzen!
Meer informatie over onze vertalingen.

Vertaalbureau Motte bij TAUS

On September 12, 2017, Translation Agency MOTTE attended a webinar hosted by TAUS about transcreation and definition of translation quality in a marketing context.
Op 12 september 2017 nam Vertaalbureau MOTTE deel aan een webinar, georganiseerd door TAUS, over transcreatie en de nieuwe benaderingen van kwaliteitseisen voor vertalen en transcreatie in verband met marketing.
taus webinar on quality control

Sint-Michielsprijzen 2016

StripFacts.php#Sint-MichielsDie jaar vielen ons de Sint-Michielsprijzen op. De Sint-Michielsprijzen worden elk jaar in Brussel uitgereikt. Dat begon in 1971, en het zouden de oudste Europese prijzen voor stripverhalen en stripmakers zijn.
Het viel ons op doordat onder de winnaars van 2016 onder andere De Drie Parels van Sa-Skya door Christophe Simon is, een nieuwe aflevering in de legendarische reeks Corentin. Het album kreeg de persprijs.
Vertaalbureau Motte zorgde voor de correcties van de Nederlandse versie. Het doet ons plezier dat we door een van onze klanten, Ballon-Media, werden uitgekozen om mee te werken aan een album waarvan het origineel een prijs won.
Andere winnaars waren:
– de oeuvreprijs voor de Italiaanse tekenaar Milo Manara
– het beste scenario voor Xavier Dorison en Fabien Nury voor Zo Maak Je Fortuin in Juni 1940
– de humor/jeugdprijs voor Benoît Ers en Vincent Dugommier voor “Les Enfants de la Résistance”
– de prijs voor het beste jonge talent voor Lucy Mazel wegens “Communardes: Les Éléphants Rouges”, op scenario van Wilfrid Lupano
– de prijs voor de beste tekenaar voor Frederik Peeters wegens Een Beeld van een Jongen
– het beste album van een Nederlandstalige auteur voor Paul Teng wegens De IJzeren Poort uit de reeks Tristan-album
– de prijs voor het beste album voor Matthieu Bonhommes wegens Lucky Luke: De Moordenaar van Lucky Luke
Onze beste gelukwensen aan alle winnaars.