Über KI-Slop

Gemälde, in dem mehrere etwas dickliche Menschen unter einem Baum im Schlaraffenland liegen
Pieter Brueghel d.Ä. Het Luilekkerland (1576)

Vorab: Der Wisspod-Adventskalender

Es gibt eine überraschende Sonderfolge von achwas.fm:
Irgendwann – vom 1. bis zum 24. Dezember – erscheint diese weihnachtlich-angehauchte Folge im Wisspod-Adventskalender. Sie ist wie alle Folgen 24 Minuten lang. Und alle bisher erschienenen Folgen findet ihr unter dieser URL: https://wissenschaftspodcasts.de/themenseiten/wisspod-adventskalender-2025

S03E14 Das Thema dieser Folge ist eigentlich ein altehrwürdiges, nämlich… das Schlaraffenland! Wirklich! Wie das sein kann? Nun, die Retorten der allenthalben entfesselten künstlichen Intelligenzen produzieren rund um die Uhr alle Arten von Inhalten – Pardon, „Content“. Sie tun dies in Mengen, für früher Tausende von Autor/innen hunderttausende Stunden hätten arbeiten müssen. Musik, Texte, Bilder quellen aus dem Browser wie gebratene Tauben.

Und sie werden von findig entwickelten Bots optimiert und in die Trefferlisten der Suchmaschinen hineingepresst. Als Bewohner dieses zweifelhaften Schlaraffenlands müssen wir anscheinend nichts mehr tun, außer Konsumieren. Alles schreibt, komponiert, textet und gestaltet sich im Nu in beliebigen Mengen wie von Geisterhand. Dabei ist es einer KI natürlich völlig gleichgültig , ob es sich bei Ihren Produkten um Wahrheiten oder Lügen, Tatsachen, Fake News oder beliebigen erfundenen Mumpitz handelt. Was zählt ist Aufmerksamkeit und Reichweite, je mehr, desto besser und koste es, was es wolle.

„AI-Slop“ oder „KI-Slop“ nennt man diesen lautlosen Content-Tsunami und so nimmt es nicht Wunder, wenn es mittlerweile Menschen gibt, die das Internet quasi für tot erklären oder seinen nahen Untergang voraussagen, tot und begraben unter … genau: KI-Slop. Also: Nach uns die Sintflut? Es scheint so. Und einmal mehr war es der zwangsgebührenfinanzierte linksversiffte Sender ARTE, der als eines der ersten reichweitenstarken Medien das Phänomen in einer wirklich sehenswerten Dokumentation aufgegriffen hat. Titel:

Und dieser wissenschaftliche Beitrag von Renee Di Resta und Josh Goldstein ist einer der frühesten zur Bestimmung des Phänomens „AI-Slop“. Er geht dabei u.a. auch auf den notorischen „Shrimp Jesus“ ein.

Unser Lesetipp zum Thema ist jedoch diesmal ein Blog-Artikel.

Humbug und Bullshit

Im Verlauf unseres Gesprächs über KI-Slop stellt sich heraus, dass Menschen – auch ohne KI – Slop erzeugen können. Der typische Auslöser für menschlichen Slop ist, dass Personen Wirkungen erzielen möchten, ohne Rücksicht auf die Wahrheit ihrer Aussagen zu nehmen. Alternativ entsteht Human-Slop, wenn Menschen gezwungen werden, über Dinge Auskunft zu geben, von denen sie nichts verstehen. Das wundervolle Essay über „Bullshitting“ des Philosophen Harry Gordon Frankfurt ist online verfügbar und es ist wirklich lesenswert. Vor dem inneren Auge sieht man schemenhaft Donald Trump Hand in Hand mit ChatGPT vorbeiziehen…

Oberflächen und Tiefenstruktur

Wir haben lange nach verständlichen und einfachen Quellen zu diesem Thema recherchiert und sind nicht wirklich fündig geworden. Natürlich: Quellen gibt es zuhauf, aber sie sind aus der Linguistik und das ist meist sehr schwere Kost zum Lesen und zum Verstehen. Wer sich für die Idee von Oberflächen- und Tiefenstrukturen von Aussagen oder Bedeutuungen im allgemeinen interessiert, mag behelfsmäßig bei der Wikipedia nachlesen:

https://de.wikipedia.org/wiki/Oberfl%C3%A4chenstruktur
und
https://de.wikipedia.org/wiki/Tiefenstruktur

Zurück zu unserer Erzählung: Einmal mehr fragen wir uns, woher das kommt und ob Inhalte ohne Ende und ohne Anstrengung wirklich eine gute Idee sind? Immerhin haben alle Utopien des Schlaraffenlands sich für die sehr zwiespältige Wirkung des Überflusses interessiert: Man könnte es so zusammenfassen: Es ist viel, es ist (a) einfach und (b) bequem, aber auch (c) ungesund und (d) degeneriert. Das haben schon die mittelalterlichen Autoren so geargwöhnt.

Model Collapse

Dass das wörtlich zu nehmen ist (das mit der Degeneration), weiß man, seitdem Forschende damit experimentieren, künstliche Intelligenzen mit ihren eigenen Produkten zu füttern. „Model Collapse“ ist der Fachbegriff. Und er bedeutet: Die über mehrere Generationen in Inzucht entwickelten Systeme beginnen Fehler zu machen, sie produzieren erratischen Unsinn, produzieren Fehlstellen und Webfehler, beginnen sich zu wiederholen und stammeln schließlich nur noch stereotyp noch noch stereotyp noch stereoptyp…

Angesichts der Tatsache, dass das Phänomen für KI eigentlich erst seit wenigen Jahren bekannt ist, sträubt man sich ja ein wenig, von „klassischen“ Quellen zu sprechen, aber dieser Beitrag – den wir im Blog besprechen bzw. zitieren – gehört zu den meistzitierten und hätte vielleicht das Prädikat „klasisch“ verdient:

Ein lesenswerter Preprint zum gleichen Thema, der genau zum gleichen Ergebnis kommt – mit Beispielen dafür, wie die Inhalte einer degenerierten KI konkret aussehen:

  • Gambetta, D., Gezici, G., Giannotti, F., Pedreschi, D., Knott, A., & Pappalardo, L. (2024). Characterizing Model Collapse in Large Language Models Using Semantic Networks and Next-Token Probability. arXiv preprint arXiv:2410.12341.
    https://arxiv.org/pdf/2410.12341

Wie viel Slop darf’s denn sein?

Das ist natürlich eine berechtigte und interessante Frage. Die Antwort ist – noch – nicht ganz einfach. Immerhin gehen alle Quellen, die wir finden konnten, von einem wachsenden Anteil von Slop in allen denkbaren Plattformen aus. Allerdings ist bei der Bewertung aller Studien, die derzeit mit maschinellen Mitteln solche Zahlen ergeben, große Vorsicht geboten. Es gibt derzeit keine zuverlässigen Methoden, KI-generierte Inhalte zu erkennen.

Hier einige derzeit aktuelle Quellen zum Thema:

  • Der im Podcast erwähnte Beitrag zur Ausbreitung von KI-Inhalten in verschiedenen Text-Sorten: Liang, W., Zhang, Y., Codreanu, M., Wang, J., Cao, H., & Zou, J. (2025). The widespread adoption of large language model-assisted writing across society. 
    https://www.cell.com/patterns/fulltext/S2666-3899(25)00214-4

Verschiedenes:

Der Halloween-Parade-Hoax wurde – wie erwähnt – vor allem im angelsächsischen Raum rund um die Britischen Inseln wahrgenommen und in der Presse kommentiert.

Das Schlaraffenland ist weit über die Erzählung, die man über Märchenbücher kennt hinaus, ein interessantes Thema. Und es macht Spaß und ist auf der anderen Seite auch etwas „creepy„, wenn man sieht, wie genau sich diese skurrile Geschichte als Allegorie auf unseren hochmodernen KI-Slop sozusagen „mappen“ lässt:

Zum Episodenbild:

Pieter Brueghel der Ältere hat diese weltberühmte Vision des Schlaraffenlands um 1576 herum gemalt. Ein Ritter, ein Bauer und ein Gelehrter (also Vertreter aller Stände) liegen – vom vielen Genuss schon leicht adipös aufgequollen – unter einem Baum und warten darauf, dass die dort bereitgestellten Köstlichkeiten sich von selbst auf den Weg zu ihnen machen. Im Hintergrund läuft ein gebratenes Ferkel und an Horizont ist die Mauer aus süßem Hirsebrei zu sehen, die das Schlaraffenland bekanntlich umgibt und durch die sich gerade jemand hindurchgefressen hat. Die Kombination von Überfluss und sündiger Trägheit entspricht natürlich der Moral des ausklingenden Mittelalters, doch als Allegorie für KI-Slop können wir uns kaum etwas Besseres vorstellen.

Bildquelle: https://de.wikipedia.org/wiki/Das_Schlaraffenland_(Bruegel)#/media/Datei:Pieter_Bruegel_d._%C3%84._(1525-1569)_-_Das_Schlaraffenland_-_8940_-_Bavarian_State_Painting_Collections.jpg