tekom - Gesellschaft für technische Kommunikation - Deutschland e.V.
28.06.2023

Der Einfluss von AI und LLMs auf die Ausbildung von Technischen Redakteuren und Übersetzern

Ergebnisse der letzten Sitzung des tekom-Hochschulnetzwerks (IUNTC)

Innovative Technologien der künstlichen Intelligenz und Large Language Models werden in naher Zukunft das Lehren, aber auch das Lernen grundlegend verändern. Welche Folgen dies haben wird und wie den Veränderungen begegnet werden kann, welche neuen Lehr- und Lernmethoden notwendig sind, um weiterhin eine qualitativ hochwertige Ausbildung zu gewährleisten - diese Fragen wurden auf der jüngsten Tagung des Internationalen Hochschulnetzwerks für Technische Kommunikation und verwandte Disziplinen (IUNTC) diskutiert. 

Jenni Viratuoto von der Universität Jyväskyla in Finnland und Sissi Closs, Hochschule Karlsruhe, konzentrierten sich in ihrem Vortrag auf die Abwägung der Vorteile und Herausforderungen der künstlichen Intelligenz im akademischen Bereich, ein wichtiges Thema, das derzeit an vielen Hochschulen diskutiert wird: Welche Auswirkungen haben die neuen Technologien auf das Lehren und Lernen und die Ausbildung, aber auch auf die Forschung und darauf, was Studierende tun dürfen und was nicht?

Bei der Betrachtung der künstlichen Intelligenz im akademischen Bereich sind zwei Aspekte zu berücksichtigen: Der erste ist – wie bereits erwähnt – die Frage, wie sich die Lehre verändert und welche neuen Methoden, Regelungen und Rahmenbedingungen erforderlich sind. Der zweite: Wie müssen Studierende auf den künftigen Einsatz von künstlicher Intelligenz in ihrem Arbeitsumfeld vorbereitet und geschult werden? Welche Fähigkeiten werden in der Arbeitswelt der Zukunft benötigt?

Derzeit sind die Berufe noch in unterschiedlichem Maße von den Einflüssen und Veränderungen betroffen, die die künstliche Intelligenz mit sich bringt. Der jüngste dramatische Anstieg der KI-Sprachmodellierungsfähigkeiten hat zu vielen Fragen über die Auswirkungen dieser Technologien auf die Wirtschaft geführt. In einer aktuellen Studie mit dem Titel „How Will Language Modelers Like ChatGPT Affect Occupations and Industries“ (Wie werden Sprachmodellierer wie ChatGPT Berufe und Branchen beeinflussen) kamen Edward W. Felten und seine Kollegen Woodrow Wilson (Princeton University), Manav Raj (University of Pennsylvania), Robert Seamans (New York University) und Leonard N. Stern (School of Business) zu dem Schluss, dass zu den Berufen, die am stärksten von der Sprachmodellierung betroffen sind, Telemarketer und eine Reihe von Hochschullehrern wie Englisch-, Fremdsprachen- und Geschichtslehrer zählen. Zu den Branchen, die am stärksten von Fortschritten bei der Sprachmodellierung betroffen sind, gehören Rechtsdienstleistungen sowie Wertpapiere, Rohstoffe und Investitionen. Es wurde auch eine positive Korrelation zwischen den Löhnen und dem Einsatz von KI-Sprachmodellen festgestellt.

Die Ergebnisse der Studie zeigen auch, dass Technische Redakteure auf Platz 90 liegen. Jenni erwähnte, dass die Gründe, warum das technische Schreiben nicht unter den Top 20 ist, folgende sind: Die Inhalte, die LLMs produzieren, sind generisch und basieren auf statistischen Wahrscheinlichkeiten, aber die Inhalte, mit denen technische Kommunikatoren arbeiten, sind kontextspezifisch und genau. Es gibt Gesetze, Vorschriften und Normen, die viele Arten von technischen Kommunikationsprodukten regeln. Und an der Erstellung von technischen Kommunikationsprodukten sind mehrere Personen beteiligt, es handelt sich um einen Co-Creation-Prozess.

In Finnland hat ChatGPT das Lehren und Lernen von Englisch komplett verändert. Es gibt mehrere Apps, die mittlerweile für unterschiedliche Zwecke genutzt werden: ChatGPT für alle, DeepL für die Übersetzung, Elicit für die akademische Forschung, Perplexity ebenfalls für die akademische Forschung, Gamma – für die Erstellung von automatischen (!) Präsentationen und Google Bard usw. (in Kürze erhältich). Und es wird noch mehr geben. Es ist schwer, mit all den Änderungen Schritt zu halten, alles ändert sich sehr schnell.

Für Studenten machen es die Tools einfach, alles in letzter Minute zu erledigen. KI wirkt sich auf die akademische Arbeit, Kursaufgaben, Forschungsarbeiten und das Lernen und Lehren aus. Das wirft die Frage auf, wie man mit akademischen Täuschungen, Plagiaten, Schummeln und unethischem Verhalten umgeht. Wie können Lehrkräfte sicherstellen, dass die Studierenden die Arbeit erledigen und lernen?

Was derzeit getan wird, ist der effektive Einsatz von Apps zur Plagiatserkennung. Außerdem werden die Studierenden angewiesen, KI- und LLM-Tools richtig zu nutzen – z. B. Perplexity anstelle von ChatGPT für die Recherche. Es bedarf jedoch klarer Richtlinien, wann der Einsatz von KI und LLMs erlaubt und wann er verboten ist. Zum Beispiel sollten LLMs niemals verwendet werden, um eine Abschlussarbeit oder einen Diplomarbeitstext von Grund auf zu erstellen, noch sollte ein solcher Text, der mit einem Sprachmodell erstellt wurde, als von dem/der Studierenden geschrieben präsentiert werden. Die Studierenden sind stets für den Inhalt der von ihnen eingereichten Arbeiten verantwortlich, einschließlich der Referenzen und eventueller sachlicher Fehler.

Und wir müssen neue Lehrmethoden entwickeln. Die Lehrenden sollten dafür sorgen, dass die Studierenden die Aufgaben nicht allein anhand des Sprachmodells lösen können, ohne selbstständig zu denken. Dies kann z. B. dadurch geschehen, dass die Aufgaben streng an das verwendete Kursmaterial oder an einen weniger bekannten Fall oder ein Beispiel geknüpft werden. Im Bereich der Übersetzung kann zum Beispiel statt der Übersetzung eines Inhalts die folgende Aufgabe gestellt werden: Die Studierenden müssen eine selbst erstellte Version V1 und eine mit DeepL oder einem anderen Tool erstellte Version V2 einreichen; sie sollen die Unterschiede zwischen den Versionen als Teil der Kursaufgabe analysieren und reflektieren. Sie reichen eine Endversion ein, die dann benotet wird.

Viele Fragen zur Ethik der KI und der LLMs sind jedoch noch ungelöst, z. B. setzen Unternehmen einzelne Nutzer als unbezahlte Ausbilder des Systems ein. Es gibt Voreingenommenheit; "garbage in, garbage out". Wie steht es um den fairen Zugang für alle Menschen auf der Welt? Wie können Datenschutz und Sicherheit gewährleistet werden, und wie werden Eigentum und Verantwortung für die produzierten Inhalte geregelt?

Um Jennis Präsentation mit einem praktischen Beispiel abzurunden, zeigte Sissi Closs, wie sie ChatGPT im Klassenzimmer für den XML-Unterricht einsetzt. ChatGPT wird hier direkt als Hilfsmittel zur Erstellung strukturierter XML-basierter Texte eingesetzt. Aus der Arbeitsperspektive gehört die Kenntnis der Auszeichnungssprache nicht unbedingt zu den Kernkompetenzen von Technischen Redakteuren. Hier ist es sinnvoll, künstliche Intelligenz einzusetzen, damit sich die Technischen Redakteure auf wichtigere Aspekte konzentrieren können.

Eines ist sicher: Wir stehen noch ganz am Anfang und das Thema künstliche Intelligenz und große Sprachmodelle wird in der Ausbildung an Schulen und Universitäten sowie in der Arbeitswelt sehr präsent bleiben und noch viele Veränderungen mit sich bringen.