23.02.2026

Quality Time mit Dr. Carmen Canfora: Gespräch mit der Risikomanagement-Beraterin zum AI Act der EU

Es ist wieder Quality Time. Willkommen zu einer neuen Episode unserer Reihe von Expertengesprächen über Sprachdienstleistungen. Diesmal hat sich unsere Fachleitung MTPE Jasmin Nesbigall mit Dr. Carmen Canfora von den RisikoScouts unterhalten. Ein interessantes Gespräch über Risikomanagement bei maschinengenerierten Übersetzungen und die Auswirkungen des AI Acts.

Dr. Carmen Canfora ist Risikomanagement-Beraterin bei den RisikoScouts und bildet als Dozentin für Translationswissenschaft an der Universität Mainz in Germersheim die nächsten Generationen an Übersetzer:innen und Sprachexpert:innen aus. oneword ist auch dieses Jahr wieder zu Gast beim Karrieretag des Fachbereichs Translations-, Sprach- und Kulturwissenschaft der Universität Mainz in Germersheim und gibt Studierenden Einblicke in das KI-Portfolio eines Sprachdienstleisters.

Jasmin Nesbigall (JN): Hallo Carmen! Danke, dass du dir die Zeit nimmst, heute mit mir über das Thema Risiko bei maschinengenerierten Übersetzungen zu sprechen. Im Allianz Risikobarometer 2026 landete KI als Geschäftsrisiko dieses Jahr in Deutschland auf Platz 4, weltweit sogar auf Platz 2. Sie liegt damit hinter Cyber-Vorfällen und Betriebsunterbrechungen, aber noch vor Naturkatastrophen. Wie kamst du denn zu dem Thema Risikomanagement für Übersetzungen?

Carmen Canfora (CC): Danke für die Einladung! Als ich 2013 angefangen habe, war von KI-Übersetzungen noch gar keine Rede. Zum Risikomanagement kam ich durch einen Aha-Moment auf einer tekom-Veranstaltung zum Thema „Einkauf von Übersetzungsdienstleistungen“. Es ging dabei viel um Übersetzungsqualität, aber irgendwann stand ein Technischer Redakteur auf und sagte „Es ist zwar nett, über Qualität zu sprechen, aber bei unseren Anleitungen können Menschen sterben, wenn sie falsch übersetzt wurden, und das lässt mich nachts nicht schlafen.“ Da wurde mir bewusst, dass das Risiko eigentlich der entscheidende Parameter für Übersetzungsworkflows ist.

JN: Wie hat sich dieses Risiko verändert, seitdem nicht mehr nur humanübersetzt wird, sondern maschinell, egal ob durch klassische MT oder durch LLMs?

CC: Von maschinellen Übersetzungen gehen grundsätzlich die gleichen Risiken aus wie von Humanübersetzungen: Haftungsrisiken, finanzielle Risiken, Risiken für Personen- und Sachschäden, operative Risiken, also z. B. ineffiziente Prozesse und menschliches oder technisches Versagen. Bei KI-Übersetzungen kommen aber noch Risiken hinzu, vor allem Compliance-Risiken und datenschutzrechtliche Risiken, weil die Datenverarbeitung intransparenter ist. Wenn personenbezogene und sensible Daten erstmal in einem KI-System drin sind, kriegt man sie da nicht mehr oder nur schwerlich raus. Die Systeme sind einfach eine Blackbox. Wir haben es also beispielsweise schnell mit Problemen mit der DSGVO zu tun.

JN: Bei der DSGVO geht es unter anderem um Serverstandorte, also den Ort der Datenverarbeitung. Bei DeepL verlagert sich dieser Serverstandort durch die Nutzung der Amazon-Cloud gerade in die USA. Das stellt für Unternehmen dann auch ein Risiko bzw. ein Compliance-Problem dar, oder?

CC: Absolut, aber vielen ist das gar nicht bewusst oder bekannt, wo ihre Daten verarbeitet werden.

JN: Wie sieht es mit Urheberrechtsverletzungen aus? Es gab schon viele Diskussionen, woher die großen Anbieter die Texte zum Training der Systeme genommen haben und ob es überhaupt legal war, diese zu verwenden.

CC: Das stimmt und zeigt außerdem, dass das Thema Haftung bei KI noch nicht ordentlich geregelt ist. Haftung ist ja generell ein komplexes Thema und erst seit Kurzem gibt es die EU-Produkthaftungsrichtlinie, die auch für KI-Systeme gilt. Hinzu kommen dann auch noch ethische Risiken beim Einsatz von KI, zum Beispiel der Aspekt der fehlenden Nachhaltigkeit. Wenn ein Unternehmen systematisch auf KI für Übersetzungen setzt, müsste das eigentlich auch im Nachhaltigkeitsbericht vorkommen. Aus der Sicht von Compliance und Haftung sind KI-Übersetzungen also deutlich komplexer und risikobehafteter als Humanübersetzungen.

JN: Wie sieht es aber konkret mit der Haftung für die Inhalte aus? Der AI Act der EU fordert im Rahmen der Transparenz zum Beispiel eine Offenlegungspflicht für KI-erzeugte Texte. Diese entfällt aber, wenn die Ergebnisse menschlich überprüft werden. Diese Überprüfung findet bei KI-Übersetzungen durch das anschließende Post-Editing statt. Liegt damit auch die gesamte Haftung bei den Posteditor:innen?

CC: Hier ist mir wichtig zu betonen, dass ich keine Juristin bin und kein rechtssicheres Urteil fällen kann. Grundsätzlich kann es aber für Posteditorinnen und Posteditoren kritisch werden, wenn sie durch die Arbeitsbedingungen gezwungen sind, in sehr kurzer Zeit eine KI-Übersetzung zu editieren und diese aufgrund der Umstände vielleicht nur oberflächlich prüfen können. Durch den Automatisierungsgrad des Übersetzungsprozesses sind sie manchmal die einzigen Menschen im gesamten Prozess. Dann liegt die Haftung bei ihnen, denn die Maschinen können definitiv nicht haften. Ich würde das bei der Ausgestaltung von Verträgen und Prozessen mit berücksichtigen.

JN: Der AI Act wird ab August 2026 voll anwendbar und du hast dich sowohl für deine Arbeit im Risikomanagement als auch in deiner Rolle als Dozentin am FTSK Germersheim ausführlich damit beschäftigt. Welche Grundprinzipien kommen in der Verordnung zur Anwendung?

CC: Der AI Act ist ein total spannendes Dokument. Denn er verfolgt einen risikobasierten Ansatz für die Bewertung von KI-Systemen. KI-Systeme werden also in verschiedene Risikoklassen eingeteilt.

JN: Welche Klassen gibt es?

CC: Es gibt vier Klassen: Minimales Risiko, begrenztes Risiko, hohes Risiko und inakzeptables Risiko. Letztere sind z. B. KI-Systeme zum Social Scoring. Diese Systeme sind verboten.

Interessant ist die Hochrisiko-Klasse, in die alle Systeme fallen, die in besonders sensiblen Bereichen eingesetzt werden und das Potenzial haben, Schäden zu verursachen. Darunter fällt alles, wo Bürgerinnen und Bürger geschädigt oder ihre Grundrechte verletzt werden könnten: Öffentlicher Dienst, Bildung, Gesundheit, kritische Infrastruktur. In dieser Klasse darf KI nicht selbstständig Entscheidungen fällen, sondern sie lediglich unterstützen. Hier wird also grundsätzlich eine menschliche Aufsicht gefordert.

Bei begrenztem Risiko sollten die Nutzerinnen und Nutzer wissen, dass sie es mit KI zu tun haben, und unter minimales Risiko fallen KI-Systeme, von denen kein Risiko ausgeht, zum Beispiel KI in Spamfiltern. Pro Klasse sind bestimmte Pflichten zu erfüllen, die bei hochriskanten Systemen natürlich größer sind als bei solchen mit begrenztem Risiko.

JN: Large Language Models können eigentlich nicht pauschal einer Klasse zugeordnet werden, weil es ja darauf ankommt, wofür sie eingesetzt werden, oder? Wenn ein LLM für die Übersetzung eines Hochrisikotexts genutzt wird, geht davon ein höheres Risiko aus als von der Übersetzung einer internen E-Mail.

CC: Genau, und das haben wir im Übersetzungsrisikomanagement von Anfang an gefordert. Es bedeutet, dass Übersetzungen, die in den Hochrisikobereich des AI Acts fallen, zwar durch KI-Systeme unterstützt werden können, aber immer eine menschliche Aufsicht brauchen, also mindestens ein Post-Editing. Ein automatisches Post-Editing alleine reicht also nicht aus. Wichtig zu wissen ist außerdem, dass der AI Act nicht die Haftung regelt, sondern nur die Compliance, also was man darf und was man nicht darf.

JN: Aus Übersetzungssicht sind also sowohl der risikobasierte Ansatz als auch die Pflicht einer menschlichen Kontrolle für Texte aus dem Hochrisikobereich wichtige Punkte, mit denen der AI Act die professionelle Übersetzung unterstützt, oder?

CC: Ja, wenn es da nicht den Erwägungsgrund 53 gäbe… Er ist eine Erweiterung des Artikels 6, in dem die Einstufungsvorschriften für Hochrisikosysteme geregelt werden. In diesem Erwägungsgrund 53 steht, dass bestimmte KI-Systeme nicht in die Hochrisikoklasse fallen, wenn sie innerhalb enger Verfahrensprozesse eingesetzt werden und wenn sie Entscheidungen nur unterstützen oder vorbereiten. Als Beispiele werden dort die Indexierung von Daten, Text- und Sprachverarbeitungen genannt. Das wäre OK, denn die sprachliche Überarbeitung eines Textes – zum Beispiel ein Umformulieren oder Anpassen an einen anderen Stil – stellt tatsächlich kein hohes Risiko dar. Allerdings steht da auch die Übersetzung von Erstdokumenten als Beispiel drin. Das halte ich für eine krasse Fehleinschätzung: Übersetzen wird damit mit einer Textüberarbeitung gleichgesetzt, was einfach nicht stimmt.

JN: Was bedeutet diese Einschätzung konkret für die Übersetzungsbranche?

CC: Sie ist kritisch, weil sie als Freifahrtschein genutzt werden kann. Wer bei Übersetzungen nur auf Effizienz guckt, könnte sagen „Guckt in den AI Act, Erwägungsgrund 53, da steht drin, dass KI-Übersetzungen nicht riskant sind. Also lassen wir alles schnell mit KI übersetzen!“. Die Einschätzung verletzt aber den Geist des AI Acts, der ganz stark wertebasiert ist und bei dem der Schutz der Bürgerinnen und Bürger im Vordergrund steht. Und durch Übersetzungen können ja definitiv Schäden entstehen.

JN: Wer ist denn für die Risikobewertung verantwortlich, also für die Entscheidung, in welche Kategorie ein Text fällt? Ist das die Aufgabe der Auftraggeber:innen oder des Dienstleisters bzw. der Übersetzer:innen selbst?

CC: Das lässt sich nicht pauschal beantworten. Im AI Act gibt es u. a. die beiden Rollen Anbieter und Betreiber, die sich um eine Risikofolgenabschätzung kümmern müssen. Diese Abschätzung kann nicht einfach an einen Dienstleister ausgelagert werden. Unabhängig vom AI Act kann die Pflicht zur Risikobewertung aber alle Rollen entlang der Prozesskette betreffen.
Aus meiner Sicht sollte immer eine gemeinsame Bewertung der Übersetzungsrisiken durch Auftraggeber und Dienstleister – egal ob Agentur oder Freelancer – erfolgen, und zwar am Anfang im Rahmen der Klärung der Übersetzungsprojektspezifika. Risikomanagement muss vorab erfolgen, um gute Entscheidungen zu treffen und nicht erst hinterher. Auf Basis dieser Bewertung lässt sich dann ein adäquater, risikobasierter Übersetzungsprozess festlegen. ISO 11669, die Norm zu Leitlinien für Übersetzungsprojekte, benennt Risikomanagement auch als Querschnittsaufgabe, die den ganzen Prozess durchzieht, und am Anfang in Zusammenarbeit zwischen Auftraggebern und Dienstleistern erfolgen muss.

JN: Nochmal zurück zu den Anbietern von KI-Systemen: Sind Anbieter im Rahmen der Offenlegungspflicht verpflichtet, zum Beispiel mit einen Disclaimer transparent zu kennzeichnen, dass ein Text mit KI erstellt wurde?

CC: Anbieter sind in dem Fall die Hersteller der Systeme, die sehr umfangreiche Pflichten haben und auch auf die Risiken beim Einsatz hinweisen müssen. Die eigentliche Transparenzpflicht liegt aber bei den Betreibern, die das System nutzen und mit dem KI-Output arbeiten. Aus meiner Sicht muss immer transparent sein, dass bei einer Übersetzung mit KI-Output gearbeitet wurde.

JN: Ist – in deiner Erfahrung aus der Risikoberatung – das Risikobewusstsein in Unternehmen seit der Nutzung von KI eher geschärft oder ist es sogar gesunken, weil plötzlich überall und von jeder:jedem KI eingesetzt wird?

CC: Das Thema Übersetzungsrisikomanagement ist bei Unternehmen in den letzten 10 Jahren ins Bewusstsein gerückt. Vor allem Mitarbeiterinnen und Mitarbeiter aus Sprachendiensten und Übersetzungsabteilungen kennen die Risiken, die von Übersetzungen ausgehen können. Deutlich weniger Bewusstsein finden wir meist eine Ebene höher, also bei den Entscheidern auf C-Level. Denn dort gelten Übersetzungen in erster Linie als Kostenfaktor und die Compliance-, Haftungs- und Cyber-Risiken werden nicht gesehen.
Gerade beim Blick auf das Allianz Risikobarometer müsste es eigentlich ganz einfach sein, Unternehmen zu zeigen, dass all diese Risiken auch durch Übersetzungen entstehen können. Der Fokus liegt aber gerade sehr auf Effizienz und Kosten, sodass alles andere überstrahlt wird. Ich habe den Eindruck, dass gerade einfach mal jeder auf die heiße Herdplatte fassen muss. Im besten Fall helfen der AI Act und die EU-Produkthaftungsrichtlinie um zu merken, dass es eine Menge Risiken gibt, die auch beim Übersetzungsprozess zu beachten sind.

JN: Effizienz und Kosten bringt uns zum Thema Quality Estimation (QE), woran das Interesse aktuell groß ist. Der Gedanke dabei ist, dass eine Maschine die Qualität einer Übersetzung einschätzt und im Fall von maschinengenerierter Übersetzung bewertet, welche Übersetzungen überhaupt noch überprüft werden müssen. Eine Maschine bewertet also eine Maschine. Darin steckt auch ein Risiko: Wenn ich der Einschätzung vertraue und die gut bewerteten Segmente nicht mehr überprüfen lasse, nehme ich in Kauf, dass die Maschine vielleicht falsch lag.

CC: Das ist eins meiner Lieblingsthemen. Die Frage ist nicht so sehr, ob QE gut ist oder nicht, sondern: Kann man in bestimmten Settings überhaupt QE einsetzen? Im Hochrisikobereich ist Quality Estimation zur Entscheidungsfindung über den Übersetzungsworkflow aus meiner Sicht nicht einsetzbar. Denn es würde eine Maschine darüber entscheiden, ob überhaupt noch ein Mensch involviert wird. Hochrisikosysteme brauchen aber eine menschliche Aufsicht und das Grundprinzip lautet, dass KI-Systeme keine Entscheidung alleine treffen dürfen.

Quality Estimation kann sicherlich zur Effizienzsteigerung beitragen. Effizienz darf aber nicht der wichtigste Entscheidungsparameter für Übersetzungsworkflows sein. Aus Risikomanagementsicht ist Quality Estimation kein risikobasierter Ansatz, denn es legt den Prozess nicht vorab fest, sondern kommt erst im laufenden Prozess zum Einsatz.

JN: Quality Estimation kann aber auch eingesetzt werden, um das Post-Editing zu unterstützen. Es werden dann keine Segmente „vorsortiert“, sondern die Ergebnisse des QE genutzt, um Fehlerpotenzial aufzudecken und die Posteditor:innen auf bestimmte Segmente aufmerksam zu machen. Hier besteht allerdings auch das Risiko, dass die als gut bewerteten Segmente überlesen werden, weil man der Maschine vertraut.

CC: Ja, das ist richtig. Interessanter fände ich daher den Einsatz nach dem Posteditieren: Wenn man den fertig bearbeiteten Text nochmal von einer Maschine prüfen lässt und schaut, ob man etwas übersehen hat oder eine Stelle unklar ist. Damit schafft man eine zusätzliche Sicherheitsebene. Dieser Schritt müsste aber definitiv erst nach dem Posteditieren erfolgen. Denn aus der Kognitionswissenschaft kennen wir genau das, was du angesprochen hast: Wenn etwas schon vorab als Fehler markiert ist, dann fallen die anderen, nichtmarkierten Bereiche aus der Aufmerksamkeit raus. Und in den nichtmarkierten Stellen könnten ja trotzdem kritische Fehler stecken.

JN: KI bringt viele neue Themen und Aufgaben in den Übersetzungsbereich. Wie hat sich dadurch die Ausbildung für Übersetzer:innen aus deiner Sicht als Dozentin an der Uni Germersheim verändert?

CC: Am FTSK Germersheim sind wir in einer Art konstantem Reformprozess und beobachten sehr genau, wie und wohin sich die Branche entwickelt. Als Dozentin steht für mich der kritische Umgang mit KI-Tools im Mittelpunkt: Ich verteufele die Tools nicht, sondern zeige ihre Stärken und Schwächen, welche Rolle der Mensch dabei spielt und wie Übersetzungsprozesse mit LLMs gestaltet werden können. Im Masterschwerpunkt „Fachübersetzen, Sprachenmanagement und Künstliche Intelligenz“ legen wir viel Wert auf KI-Risikomanagement und KI-Ethik. Mein Kollege Ralph Krüger von der TH Köln hat den Begriff „AI Literacy“ geprägt, also KI-Alphabetisierung, und das ist ein Ansatz, den wir auch in Germersheim sehr spannend finden und weiterverfolgen werden.
Wichtig ist aber, dass wir weiterhin eine solide Basis translatorischer Kompetenz aufbauen. Wir haben immer noch klassische Übersetzungsübungen, durch die unsere Studierenden „durchmüssen“. Denn man lernt den kritischen Umgang mit KI-Tools erst durch eigenes Übersetzen und nicht nur durch das Prüfen von KI-Output.

JN: Spürst du denn eine Verunsicherung bei den Studierenden, ob Übersetzer:innen in der Zukunft noch gebraucht werden oder gibt es ein Grundvertrauen, dass Sprachkompetenz immer wichtig bleiben wird?

CC: Beides. Geisteswissenschaften scheinen insgesamt gerade nicht so attraktiv, davon bleiben auch die translationswissenschaftlichen Studiengänge nicht verschont. Und es herrscht eine Verunsicherung, wie sich die Branche entwickeln wird und wo die Studierenden darin ihren Platz finden. Ich bin mir sicher, dass Übersetzerinnen und Übersetzer auch in Zukunft noch gebraucht werden, aber dass sich das Berufsbild stark verändert hat. Das muss den Studierenden bewusst sein und das kommunizieren wir auch offen.

Mit Blick auf das Risikobarometer sollten wir die Rolle von Übersetzern umdefinieren und Entscheidern anders begegnen: Wir verkaufen keine Wörter oder Sprache und auch keine Texte. Was wir verkaufen, sind Sicherheit und Vertrauen. Das ist in der „schönen neuen KI-Welt“ der entscheidende Faktor: Wenn wir uns als diejenigen begreifen, die für Sicherheit sorgen und die sagen „Ihr seid in einem hochregulierten und hochriskanten Bereich unterwegs und ich sorge dafür, dass ihr mit euren Übersetzungen keine hohen Risiken eingeht“, dann haben wir eine klare Überlebenschance. Das ist vergleichbar mit Underwritern im Versicherungswesen. Ich würde unsere neue Rolle daher „Übersetzungs-Underwriter“ nennen.

JN: Dieser neue Jobtitel ist doch ein schönes Schlusswort. Vielen Dank für das Gespräch, Carmen!

8 gute Gründe für oneword.

Erfahren Sie mehr über unsere Kompetenzen und was uns von klassischen Übersetzungsagenturen unterscheidet.

Wir liefern Ihnen 8 gute Gründe und noch viele weitere Argumente, warum eine Zusammenarbeit mit uns erfolgreich ist.

Angebot anfordern

    Ich bin damit einverstanden, dass mich die oneword GmbH kontaktiert und meine angegebenen Daten speichert.