Werden LLMs Technische Redakteure ersetzen?

Zurück zum Blog

Vereinfacht gesprochen, besteht der große Sprung, den Künstliche Intelligenz mit den Large Language Models (LLM) gemacht hat, darin, dass sie nun beliebige Texte schreiben kann. „Texte schreiben“ ist auch die landläufige Vorstellung von dem, was Technische Redakteure tun. Da drängt sich der Schluss auf, man könne alle Technischen Redakteure durch ChatGPT ersetzen. Können diese Modelle wirklich die Texte produzieren, die wir von Technischen Redakteuren erwarten?

Bei Produkttexten, in denen die Bedienung, Funktionsweise, Wartung von Produkten erklärt werden, spielt Faktentreue eine entscheidende Rolle. Hier kommen zwei Dinge zusammen, die Large Language Models schwerfallen. LLMs haben nicht das Gerät, dessen Bedienung z. B. erklärt wird, vor sich stehen. Es weiß nicht einmal etwas von seiner Existenz. Es wird lediglich durch unsere Fragen und Aufgaben („Beschreibe die Anschlüsse der PowerPump-5000“) in einen Kontext von Textfragmenten geführt.

Handelt es sich um ein bekanntes Gerät, über das viel im Internet veröffentlicht ist, finden sich darüber ganz viele Textfragmente. In diesem Fall ist die Performance der LLMs eindrucksvoll. Ist das Gerät neu oder weniger verbreitet, finden sich in diesem Kontext bestenfalls Textfragmente zu ähnlichen Geräten (andere Pumpen und ihre Anschlüsse). Dann bedient sich die Generative AI aus diesen Fragmenten. Das ist auf der einen Seite eine eindrucksvolle Übertragungsleistung, die echte Intelligenz suggeriert, aber sachlich meist völlig falsch – woher soll es die KI auch besser wissen?

Man könnte also sagen, dass LLMs am besten Texte schreiben, die es schon tausendmal gibt. Deswegen werden sie gerne für SEO-Texte eingesetzt. In der Technischen Kommunikation ist diese Fähigkeit weniger hilfreich, außer es handelt sich um ein reines Nachahmerprodukt, das die dieselben Funktionalitäten bietet, wie tausend andere.

Hier ist auch nicht das Ende der Fahnenstange erreicht: Ernsthafte KI-Player kombinieren bereits unterschiedliche KI-Techniken und integrieren z. B. über Knowledge Graphen zusätzliches Wissen in die Textgenerierung der LLMs. So bringen wir die GenAI dazu, Texte zu schreiben, die zu dem Gerät passen, das die Kunden vor sich haben. Und sie geben Antworten, auf die sich z. B. ein Servicetechniker verlassen kann. Wir sprechen bei Empolis von Trustworthy AI.

Die Rolle der LLMs wird in diesem Set-up reduziert. Den Wissensbeitrag müssen wir selbst gestalten, egal ob wir Produktwissen und Features aus einem Knowledge Graph beisteuern oder ähnliche Fälle über Case-based-Reasoning ermitteln. Trotzdem ist die Kombination von wissensbasierter KI und LLMs spannend.

Vor allem, wenn wir den Anwendungsfall erweitern – vom Schreiben von Texten zum Führen eines Dialogs, in dem wir die Äußerungen der Nutzer verstehen, einen Gesprächskontext mitführen, Inhalte genau vor diesem Hintergrund darstellen, Rückfragen beantworten usw. All das sind Leistungen, die LLMs mitbringen, wenn sie sich „inhaltlich zu Hause fühlen“.

Auch wenn diese Kombination ihre eigenen Herausforderungen mit sich bringt: Hier lohnt es sich Energie zu investieren, denn hier sind wir bei einer der großen Visionen der Technischen Kommunikation: Exakt die Information zu liefern, die ein Nutzer in einer bestimmten Situation braucht.

Was bedeutet das für die Arbeit der Technischen Redaktion? Tatsächlich könnte es bedeuten, dass weniger geschrieben werden muss. Aber ganz viele Tätigkeiten, die Technische Kommunikation schon immer ausgemacht haben, bleiben selbstverständlich bestehen – das Zusammentragen und Prüfen von Information, das Befragen von Experten aus der Entwicklung etc. – irgendwo muss neue Information schließlich herkommen.

Besonders gefordert wird die Technische Redaktion zukünftig beim Strukturieren und Organisieren von Informationen – z. B. in Form von Knowledge Graphen, mit denen die LLM-Dialoge gefüttert und gesteuert werden.