Das Problem an KI-generierten Inhalten entsteht oft nicht durch die Inhalte selbst, sondern durch den Kontext, in dem sie zwischen Menschen zirkulieren. KI kann hilfreich, kreativ und produktiv sein — aber sobald unklar wird, wer etwas sagt, warum es gesagt wird und wie viel echte Absicht dahintersteckt, entstehen Probleme.
So ähnlich beginnen heute viele Texte in unserem Alltag. Wenn du Erfahrung mit AI-Tools hast, erkennst du bestimmt das Problem. Inhaltlich ist der erste Absatz nicht falsch, aber auch nicht gut und auch nicht wirklich informativ. Es handelt sich um sogenannten AI-Slop. Aufgeblähter Text, bei dem die inhaltliche Essenz vom Gehirn erstmal aufwändig extrahiert werden muss.
Die tägliche AI-Flut
AI-generierte Texte sind heute allgegenwärtig. Als Voice-Engineer bei sipgate lese ich täglich AI-generierte E-Mails oder Troubleshooting-Tickets von Partnern, AI-generierte User-Stories von Product-Ownern, AI-generierte Zusammenfassungen von Meetings und eine Menge AI-generierten Code. Und natürlich benutze auch ich jeden Tag AI-Tools, um mir unliebsame Aufgaben zu automatisieren, Dokumentation zu erstellen oder standardisierte E-Mails zu versenden. Und dank AI werden in diesem Artikel sogar korrekte Kommata gesetzt 😉
AI, didn't read
Problematisch wird es, wenn ich mit Gehirnaufwand Informationen aus einem Text extrahieren muss, den jemand anders schnell dahingeneriert hat. Der Erstellende hat es sich mit AI-Tools leicht gemacht, eine Menge Text zu erstellen, macht mir jetzt aber Aufwand, den Text zu lesen, zu verstehen, zu interpretieren und zu bewerten. AI-generierte Texte sehen vermeintlich souverän und bedacht aus. Es kostet jedoch relativ viel Energie, den Text zu bewerten. Die Arbeit wird hier auf den Empfangenden verlagert. In krassen Fällen empfinde ich es durchaus als respektlos, die ich auch schon Mal mit ai;dr (AI; didn't read) oder einer erklärenden Version wie “Ich habe den Text nicht gelesen, aber sag mir gerne Bescheid, wenn du daraus interessante Erkenntnisse gewonnen hast" beantworte. Vermutlich hat der Absendende das nicht beabsichtigt, aber geht, dank AI-Tools, für sich nur den Weg des geringsten Widerstandes. Allerdings zu meinen Lasten.
Weniger Belastung für alle Beteiligten
Trotz vieler anderer Probleme von AI-Tools bin ich davon überzeugt, dass diese nicht mehr aus unserem Alltag verschwinden werden. Die Auseinandersetzung damit und das Erkennen von AI-Slop ist also ein Skill, den wir alle beherrschen werden müssen. Was aber können wir tun, um die Kommunikation zwischen Menschen um den sinnvollen Teil von AI-Tools zu erweitern, der im Ergebnis zu weniger Belastung aller Beteiligten (Menschen) führt?
Als Grundvoraussetzung für die schriftliche Kommunikation unter Menschen wünsche ich mir: Als Absender bin ich für jedes Wort eines Textes verantwortlich. Es sollte also selbstverständlich sein, dass ich jeden Text auf inhaltliche Korrektheit und Relevanz geprüft habe, bevor ich ihn Kolleg:innen vorsetze. Das sollte der Normalfall sein. Wenn das mal nicht der Fall ist, kann der Umstand als Zusatzinformation angegeben werden, z.B. “Das AI-Tool schlägt diese Formulierung vor, ich habe sie aber noch nicht bewertet”. Mit so einem Hinweis weiss ich, was mich erwartet und gehe ganz anders an die Aufgabe ran.
Texte, Bilder und Code mit Wert
Wir als Gesellschaft werden den Umgang mit AI-Tools lernen müssen. Die meisten Menschen haben auch nervende Klingeltöne, Flut von Push-Notifications und lange Sprachnachrichten in den Griff bekommen. Bis sich neue Spielregeln in der Zusammenarbeit mit AI-Tools eingeruckelt haben, werde ich wohl noch einige Nachrichten mit ai;dr beantworten. Durch eigene, kognitive Arbeit erstellte Texte, Bilder oder Codezeilen sind wertvoller als AI-Slop. Solange AI-Tools dem Absendenden dienen und dem Empfangenden keine Mehrarbeit macht, können sie von mir aus auch gerne verwendet werden.
.jpg)
.jpg)


