Texte von generativen AI-Systemen, Künstlicher Intelligenz oder LLM-Diensten (Large Language Models) erstellen zu lassen, war niemals so einfach wie heute: Jeder kann sich ein kostenloses Konto bei ChatGPT erstellen, nutzt Gemini auf seinem Handy oder wird in Word vom Microsoft Copilot „begleitet“. Ein Prompt – eine (fast) menschlich anmutende Antwort. Doch manchmal klingt sie trotzdem künstlich, oder? Aber vielleicht lesen wir mittlerweile so viele KI-geschriebene Inhalte (in Mails, in Magazinen, auf Websites und Social Media), bei denen wir es gar nicht bemerken und deren Sprache wir uns selbst aneignen? Das schauen wir uns in diesem Artikel genauer an.
KI-Nutzung im Alltag – auf dem Handy, Tablet oder Computer
Wir lassen uns WhatsApp-Nachrichten vorschreiben, geschäftliche E-Mails verfassen, Dokumente zusammenfassen oder philosophieren mit der KI über zwischenmenschliche Beziehungen. Die Systeme wurden dabei mit Texten, Anfragen und Eingaben echter Menschen trainiert, also mit Inhalten, die so tatsächlich einmal veröffentlicht oder eingespeist worden sind. Es gibt Unternehmen, die Mitarbeiter oder Freiberufler dafür bezahlen, Anfragen in möglichst natürlicher Sprache zu formulieren, um die KI auf „menschlichere“ Sprache zu trainieren und so immer bessere Antworten zu erzielen.
Berufliche Nutzung von KI-Texten
Gerade bei Texten, die ausgegeben werden, um – möglicherweise unbearbeitet – anderswo genutzt zu werden, ist den Nutzern eventuell daran gelegen, dass man KI nicht sofort erkennt. Es gab und gibt einige Hinweise auf KI-Beteiligung: Nicht umsonst ging im vergangenen Jahr der ChatGPT-Gedankenstrich durch die Presse (siehe u. a. bei Der Standard oder der taz), dabei sind ein oder mehrere Gedankenstriche in einem Text natürlich kein Garant dafür, dass ihn die KI geschrieben hat. Trotzdem führte dieser „Vorwurf“ dazu, dass einige Texter und Autoren der Meinung waren, Gedankenstriche von nun an aus ihrem Repertoire streichen zu müssen, um sich nicht dem Vorwurf ausgesetzt sehen zu müssen, dass nicht sie, sondern ChatGPT der wahre Autor ihres Textes gewesen sein könnte (oder müsste).
Und ja: Auch der klassische Hinweis „Soll ich den Text noch ändern, damit er besser zu deiner Zielgruppe passt?“ wurde schon unter dem ein oder anderen Artikel in Zeitungen oder Magazinen gefunden.
Wie KI sich selbst beeinflusst
Auch bestimmte Formulierungen oder Formatierungen können den aufmerksamen Leser erkennen lassen, dass die KI ihre virtuellen Finger im Spiel hatte. Und dadurch, dass stetig mehr Inhalte erstellt und veröffentlicht werden, die dann wiederum in das Training der Sprachmodelle einfließen, „lernt“ die generative KI mit ihren eigenen Formulierungen, die sich so verstärken können.
Das muss nicht zwingend zu inhaltlichen Problemen führen, könnte sich aber kurz- bis mittelfristig auf unsere Sprache auswirken.
Sprachwandel durch KI
Je mehr wir Menschen diesen maschinengenerierten Inhalten ausgesetzt sind, sie lesen und in uns aufnehmen, kann dadurch auch eine Veränderung unserer Sprache auftreten. Gerade im akademischen Bereich scheint das schon heute der Fall zu sein (siehe „Empirical evidence of Large Language Model’s influence on human spoken communication“).
Einfluss auf Veränderungen hatten in der Vergangenheit beispielsweise Kontakte zu Völkern mit anderen Sprachen, die Anpassung der Sprache an die kommunikativen Bedingungen, aber auch Innovation und Sprachökonomie (vgl. Peter von Polenz).
Durch die KI beeinflusste Veränderungen sind eigentlich der soziokulturellen Evolution zuzuschreiben, ähnlich wie beim Sprachkontakt mit anderssprachigen Gruppen. Zwar entstehen hier nicht unbedingt neue Begriffe, es finden vielleicht auch keine Lautverschiebungen statt, aber eben Beeinflussungen.
Sind Veränderungen gut oder schlecht?
Sprache ist im Wandel, schon immer. Sprachwandel ist aber nicht mit Sprachverfall gleichzusetzen – es muss also nicht schlecht sein, dass wir heute nicht mehr so schreiben wie Goethe oder Schiller. Außerdem war schon Gottfried Wilhelm Leibniz 1697 der Meinung, dass die „teutsche Sprache“ durch fremdsprachige Begriffe quasi den Bach runtergehe, Arthur Schopenhauer war 1852 derselben Meinung – und wäre vielleicht selbst bei Leibniz bereits sprachlich durchgefallen.
Niemand muss es persönlich schön oder gut finden, wenn sprachliche Veränderungen eintreten. Unsere Aufgabe beim Übersetzen ist es allerdings vor allem, Inhalte für die richtige Zielgruppe verständlich zu machen. Natürlich ist eine Übersetzung für Jugendliche anders als ein medizinischer Fachtext – und das ist auch gut so.
PS: Trotz der Nutzung von Gedankenstrichen wurde dieser Text nicht von ChatGPT oder einer anderen generativen KI geschrieben. Wer sich diesen Vorwürfen aber nicht ausgesetzt sehen möchte, könnte seinen Text auch noch einmal überarbeiten lassen. Mit einem Prompt, der an das Vermeiden von Gedankenstrichen erinnert, sollte das gehen.
Quellen:
- Goethe-Institut, Elias Hirschl: „Der Untergang der deutschen Sprache“ unter https://www.goethe.de/prj/ger/de/kre/spk/25841714.html, zuletzt am 10.12.2025.
- Harfmann, Mona: „Eigene Daten als ‚Achillesferse‘ der KI“, unter https://topos.orf.at/inside-ai-chat-gpt100, zuletzt am 10.12.2025.
- Himoru Yakura, Ezequiel Lopez-Lopez, Levin Brinkmann, Ignacio Serna, Prateek Gupta, Iyad Rahwan: „Empirical evidence of Large Language Model’s influence on human spoken communication“, unter https://arxiv.org/html/2409.01754v1, zuletzt am 08.12.2025.
- von Polenz, Peter (Berlin/York 2000): „Deutsche Sprachgeschichte vom Spätmittelalter bis zur Gegenwart. Band 1: Einführung. Grundbegriffe. 14. bis 16. Jahrhundert“, S. 21ff.
