KI-generierte Texte dominieren zunehmend unseren Alltag, mit Folgen für unsere Sprache und damit für unsere Wahrnehmung, da diese durch Sprache geformt wird. Die durch KI bewirkte Homogenisierung weist Parallelen zu Mechanismen der NS-Zeit auf, die uns alle zu denken geben sollten.
Im Rahmen des Deutschunterrichts vertieften wir uns in Semantik, also die Wissenschaft, die sich mit Bedeutungen von Wörtern auseinandersetzt. Dabei lasen wir einen Artikel von «Republik» über ein verschriftlichtes Gespräch mit dem Sprachwissenschaftler Noah Bubenhofer. Zudem gab uns unser Lehrer mit seinen Präsentationen einen Einblick in die Theorie dahinter, wie Wörter ihre Bedeutungen erhalten und wie sich Nazis in der NS-Zeit die Semantik zu eigen machten. Ziel des Ganzen war es, dass wir ein Verständnis dafür entwickeln, wie gezielte Wortwahl unsere Wahrnehmung beeinflussen kann.
Für das Verständnis von Sprachwirkung ist die sprachliche Relativitätstheorie von zentraler Bedeutung. Diese besagt, dass unsere Wahrnehmung durch Sprache geprägt ist. Damit ist beispielsweise gemeint, dass im Deutschen die Brücke, ein feminines Substantiv, eher mit femininen Attributen in Verbindung gebracht wird, während dies in anderen Sprachen genau andersherum ist. Heutzutage ist die weit verbreitete Auffassung über die sprachliche Relativitätstheorie, dass diese in moderater Ausprägung vorhanden ist.
Ein weiteres für das Verständnis von Sprachwirkung zentrales Element sind sogenannte semantische Frames. In unserem Gehirn ist unser Weltwissen in semantische Frames unterteilt, die gewisse Alltagssituationen abbilden. Jedes Wort aktiviert spezifische Frames. In einem Satz werden dann die verschiedenen Frames überlagert, wodurch dessen Bedeutung zustande kommt. Welche Frames aktiviert werden, hängt aber auch stark vom Kontext ab. Bedeutungen von Wörtern sind jedoch nicht fest. Sie verändern sich bei jeder Verwendung, basierend auf den Frames, die die gemachte Aussage überlagern. Wird das in einer Aussage gezielt genutzt und somit eine bestimmte Assoziation herbeigeführt, nennt man das Framing. Wer also viele Leute erreicht und Sprache gezielt einsetzt, kann so die Bedeutung von Wörtern langfristig verschieben. Dies ist eine der Techniken, die die Nazis nutzten, um Einfluss auf die Öffentlichkeit zu nehmen. Somit deuteten sie beispielsweise den Begriff «fanatisch» ins Positive um. Andere Merkmale ihres gezielten Sprachgebrauchs waren z. B. die Nutzung von Neologismen – neue Begriffe wie Kulturschaffende – oder militarisierte Sprache. Ausserdem benutzten sie Begriffe aus der Technik, der Biologie, der Religion und dem Sport in anderen Bereichen, um die Komplexität zu reduzieren. Dieser gezielte Sprachgebrauch lässt sich als eine Form von «Newspeak» zusammenfassen. Dabei handelt es sich um eine ursprünglich in Orwells 1984 erfundene Sprache des englischen Sozialismus. «Newspeak» ist eines der 14 Merkmale des von Umberto Eco beschriebenen Ur-Faschismus. Eco spricht in seiner Definition dieses 14. Merkmals ausserdem davon, wie nazistische oder faschistische Schulbücher sich eines reduzierten Wortschatzes und einer simplifizierten Syntax bedienten, um die Mittel zu kritischem und nuanciertem Denken zu begrenzen. Sprache zu vereinfachen heisst also, Denken zu vereinfachen. Was aber, wenn das heute algorithmisch bedingt, unbemerkt von den Massen, wieder geschieht?
Egal ob Schulbuch oder vielbesuchte Webseite – alles, was mit vielen Personen schriftlich in Kontakt tritt, hat einen Einfluss auf diese. Gerade die in den letzten Jahren grossgewordenen KI-Chatbots sind in diesem Zusammenhang relevant und es stellt sich die Frage, welche Folgen Interaktionen mit KI-Chatbots auf unseren Sprachgebrauch haben.

Um die Auswirkungen nachvollziehen zu können, muss man zuerst einmal verstehen, wie ein grosses Sprachmodell funktioniert. Solche Modelle werden auf globale Datensätze trainiert. Diese werden dann zwar sprachspezifisch verarbeitet, jedoch ohne kulturellen Kontext. Dadurch ist das Modell in der Lage, grammatikalisch korrekte Sätze zu formen, die jedoch meist an kultureller Tiefe mangeln. Ausserdem tendieren solche Modelle beim Textgenerieren meist zu der Option, die die höchste Wahrscheinlichkeit hat. Die anderen Möglichkeiten hingegen werden häufig verworfen. Das führt zu einem Homogenisierungsprozess: Gewisse Formulierungen werden vom Chatbot überproportional und andere kaum noch verwendet. So verliert die Sprache an Variation. Eine Studie des Max-Planck-Instituts hat untersucht, wie sich das auf den Menschen ausgewirkt hat. Dazu wurden 360’000 YouTube-Videos und 771’000 Podcastepisoden aus der Zeit vor und nach der Veröffentlichung von ChatGPT auf Begriffe untersucht, die überproportional von ChatGPT verwendet werden. Das Ergebnis ist eindeutig: Begriffe wie «delve», «comprehend» oder «meticulous» wurden deutlich häufiger verwendet, nachdem ChatGPT veröffentlicht wurde. Dies war auch in freien, ungeplanten Vorträgen oder sogar bei Personen, die selbst kaum ChatGPT verwenden, der Fall. Obwohl die Studie auf Englisch basiert, liegt es nahe, dass derselbe Mechanismus auch im Deutschen greift. Das zeigt, wie gross die Macht jener ist, die die Kontrolle über grosse Sprachmodelle haben. Gerade in Anbetracht des im ersten Teil erklärten Framings und der sprachlichen Relativitätstheorie ist das besorgniserregend. Auch einer der Studienautoren, Ezequiel Lopez-Lopez, äusserte seine Bedenken in einem Interview mit «Die Zeit». Ausserdem betonte er, dass ChatGPT strukturell bedingt immer den Durchschnitt repräsentiere, was der Vielfalt im Wege stehe. Dies ist insofern problematisch, als dass es wohl langfristig auch zu einer Vereinheitlichung und somit Reduzierung unseres Wortschatzes führen wird. Auch wenn KI das nicht mit Absicht tut, könnte die Wirkung ähnlich sein wie bei den Nazis: Wer die Sprache vereinfacht, vereinfacht das Denken. So warnt das Forscherteam, dass sogar die Gefahr einer unbemerkten Massenmanipulation der öffentlichen Kommunikation bestehe. Hiromu Yakura, ein weiterer Studienautor, weist zudem auf die Problematik einer selbstverstärkenden Homogenisierung hin: Die Menschen übernehmen die Gewohnheiten der KI und ihre Sprachdaten werden wiederum für das Training von neuen grossen Sprachmodellen verwendet, was die Homogenisierung verstärkt.
KI nimmt Einfluss auf unsere Sprache, ob wir wollen oder nicht. Längerfristig könnte sie sogar zu einer Homogenisierung unseres Wortschatzes führen. Dies ist gefährlich, da es uns anfälliger für unbemerkte Manipulation macht und uns unserer Mittel, kritisch zu denken, beraubt. Umso wichtiger ist deshalb Bubenhofers Rat, der im Gespräch mit «Republik» auf die Frage, wie man sich Sprachmanipulation entziehen könne, antwortete: «Lesen, lesen, lesen.» Am besten eignet sich dafür Literatur, die vor der KI-Ära publiziert wurde. Genauso wichtig ist ausserdem, weiterhin selbst Texte zu schreiben und die verschiedenen Etappen der Textproduktion eigenständig zu durchlaufen. Nur so sind wir in der Lage, unsere grauen Zellen auch in Zukunft scharf zu halten.