Vorab: Der Wisspod-Adventskalender

Es gibt eine überraschende Sonderfolge von achwas.fm:
Irgendwann – vom 1. bis zum 24. Dezember – erscheint diese weihnachtlich-angehauchte Folge im Wisspod-Adventskalender. Sie ist wie alle Folgen 24 Minuten lang. Und alle bisher erschienenen Folgen findet ihr unter dieser URL: https://wissenschaftspodcasts.de/themenseiten/wisspod-adventskalender-2025
S03E14 Das Thema dieser Folge ist eigentlich ein altehrwürdiges, nämlich… das Schlaraffenland! Wirklich! Wie das sein kann? Nun, die Retorten der allenthalben entfesselten künstlichen Intelligenzen produzieren rund um die Uhr alle Arten von Inhalten – Pardon, „Content“. Sie tun dies in Mengen, für früher Tausende von Autor/innen hunderttausende Stunden hätten arbeiten müssen. Musik, Texte, Bilder quellen aus dem Browser wie gebratene Tauben.
Und sie werden von findig entwickelten Bots optimiert und in die Trefferlisten der Suchmaschinen hineingepresst. Als Bewohner dieses zweifelhaften Schlaraffenlands müssen wir anscheinend nichts mehr tun, außer Konsumieren. Alles schreibt, komponiert, textet und gestaltet sich im Nu in beliebigen Mengen wie von Geisterhand. Dabei ist es einer KI natürlich völlig gleichgültig , ob es sich bei Ihren Produkten um Wahrheiten oder Lügen, Tatsachen, Fake News oder beliebigen erfundenen Mumpitz handelt. Was zählt ist Aufmerksamkeit und Reichweite, je mehr, desto besser und koste es, was es wolle.
„AI-Slop“ oder „KI-Slop“ nennt man diesen lautlosen Content-Tsunami und so nimmt es nicht Wunder, wenn es mittlerweile Menschen gibt, die das Internet quasi für tot erklären oder seinen nahen Untergang voraussagen, tot und begraben unter … genau: KI-Slop. Also: Nach uns die Sintflut? Es scheint so. Und einmal mehr war es der zwangsgebührenfinanzierte linksversiffte Sender ARTE, der als eines der ersten reichweitenstarken Medien das Phänomen in einer wirklich sehenswerten Dokumentation aufgegriffen hat. Titel:
- KI: der Tod des Internets
https://www.arte.tv/de/videos/122187-000-A/ki-der-tod-des-internets/
Und dieser wissenschaftliche Beitrag von Renee Di Resta und Josh Goldstein ist einer der frühesten zur Bestimmung des Phänomens „AI-Slop“. Er geht dabei u.a. auch auf den notorischen „Shrimp Jesus“ ein.
- DiResta, R., & Goldstein, J. A. (2024). How Spammers, Scammers and Creators Leverage AI-Generated Images on Facebook for Audience Growth. Stanford University (preprint). Retrieved April, 11, 2025.
https://cyber.fsi.stanford.edu/news/ai-spam-accounts-build-followers
Unser Lesetipp zum Thema ist jedoch diesmal ein Blog-Artikel.
- Er wurde im Oktober 2025 von Martin Käßler geschrieben. Er hat den Titel „Der große AI Slop: KI-generierte Inhaltsflut und ihre Auswirkungen auf die digitale Gesellschaft und das Internet“ vom Oktober 2025, online unter
https://www.martinkaessler.com/der-grosse-ai-slop-ki-generierte-inhaltsflut-und-ihre-auswirkungen-auf-die-digitale-gesellschaft-und-das-internet/
Humbug und Bullshit
Im Verlauf unseres Gesprächs über KI-Slop stellt sich heraus, dass Menschen – auch ohne KI – Slop erzeugen können. Der typische Auslöser für menschlichen Slop ist, dass Personen Wirkungen erzielen möchten, ohne Rücksicht auf die Wahrheit ihrer Aussagen zu nehmen. Alternativ entsteht Human-Slop, wenn Menschen gezwungen werden, über Dinge Auskunft zu geben, von denen sie nichts verstehen. Das wundervolle Essay über „Bullshitting“ des Philosophen Harry Gordon Frankfurt ist online verfügbar und es ist wirklich lesenswert. Vor dem inneren Auge sieht man schemenhaft Donald Trump Hand in Hand mit ChatGPT vorbeiziehen…
- Frankfurt, H. G. (2005) On Bullshit. Princeton University Press, Princeton, NJ
https://vultureofcritique.wordpress.com/wp-content/uploads/2016/10/harry-g-frankfurt-on-bullshit-princeton-university-press-2005.pdf
Oberflächen und Tiefenstruktur
Wir haben lange nach verständlichen und einfachen Quellen zu diesem Thema recherchiert und sind nicht wirklich fündig geworden. Natürlich: Quellen gibt es zuhauf, aber sie sind aus der Linguistik und das ist meist sehr schwere Kost zum Lesen und zum Verstehen. Wer sich für die Idee von Oberflächen- und Tiefenstrukturen von Aussagen oder Bedeutuungen im allgemeinen interessiert, mag behelfsmäßig bei der Wikipedia nachlesen:
https://de.wikipedia.org/wiki/Oberfl%C3%A4chenstruktur
und
https://de.wikipedia.org/wiki/Tiefenstruktur
Zurück zu unserer Erzählung: Einmal mehr fragen wir uns, woher das kommt und ob Inhalte ohne Ende und ohne Anstrengung wirklich eine gute Idee sind? Immerhin haben alle Utopien des Schlaraffenlands sich für die sehr zwiespältige Wirkung des Überflusses interessiert: Man könnte es so zusammenfassen: Es ist viel, es ist (a) einfach und (b) bequem, aber auch (c) ungesund und (d) degeneriert. Das haben schon die mittelalterlichen Autoren so geargwöhnt.
Model Collapse
Dass das wörtlich zu nehmen ist (das mit der Degeneration), weiß man, seitdem Forschende damit experimentieren, künstliche Intelligenzen mit ihren eigenen Produkten zu füttern. „Model Collapse“ ist der Fachbegriff. Und er bedeutet: Die über mehrere Generationen in Inzucht entwickelten Systeme beginnen Fehler zu machen, sie produzieren erratischen Unsinn, produzieren Fehlstellen und Webfehler, beginnen sich zu wiederholen und stammeln schließlich nur noch stereotyp noch noch stereotyp noch stereoptyp…
Angesichts der Tatsache, dass das Phänomen für KI eigentlich erst seit wenigen Jahren bekannt ist, sträubt man sich ja ein wenig, von „klassischen“ Quellen zu sprechen, aber dieser Beitrag – den wir im Blog besprechen bzw. zitieren – gehört zu den meistzitierten und hätte vielleicht das Prädikat „klasisch“ verdient:
- Shumailov, I., Shumaylov, Z., Zhao, Y., Papernot, N., Anderson, R., & Gal, Y. (2024). AI models collapse when trained on recursively generated data. Nature, 631(8022), 755-759.
https://www.nature.com/articles/s41586-024-07566-y.pdf
Ein lesenswerter Preprint zum gleichen Thema, der genau zum gleichen Ergebnis kommt – mit Beispielen dafür, wie die Inhalte einer degenerierten KI konkret aussehen:
- Gambetta, D., Gezici, G., Giannotti, F., Pedreschi, D., Knott, A., & Pappalardo, L. (2024). Characterizing Model Collapse in Large Language Models Using Semantic Networks and Next-Token Probability. arXiv preprint arXiv:2410.12341.
https://arxiv.org/pdf/2410.12341
Wie viel Slop darf’s denn sein?
Das ist natürlich eine berechtigte und interessante Frage. Die Antwort ist – noch – nicht ganz einfach. Immerhin gehen alle Quellen, die wir finden konnten, von einem wachsenden Anteil von Slop in allen denkbaren Plattformen aus. Allerdings ist bei der Bewertung aller Studien, die derzeit mit maschinellen Mitteln solche Zahlen ergeben, große Vorsicht geboten. Es gibt derzeit keine zuverlässigen Methoden, KI-generierte Inhalte zu erkennen.
Hier einige derzeit aktuelle Quellen zum Thema:
- Dieser Beitrag behandelt die schwierig zu lösenden Probleme bei der sicheren Identifikation von KI-Inhalten:
Fariello, S., Fenza, G., Forte, F., Gallo, M., & Marotta, M. (2025). Distinguishing Human From Machine: A Review of Advances and Challenges in AI-Generated Text Detection. International Journal of Interactive Multimedia & Artificial Intelligence, 9(3).
https://www.researchgate.net/profile/Serena-Fariello/publication/387246195_Distinguishing_Human_From_Machine_A_Review_of_Advances_and_Challenges_in_AI-Generated_Text_Detection/links/679744d84c479b26c9bab165/Distinguishing-Human-From-Machine-A-Review-of-Advances-and-Challenges-in-AI-Generated-Text-Detection.pdf - Shaib, C., Chakrabarty, T., Garcia-Olano, D., & Wallace, B. C. (2025). Measuring AI-„Slop“ in Text. arXiv preprint arXiv:2509.19163.
- Der Betreiber des SEO-Tools „Ahref“ veröffentlicht aufgrund eigener Crawls Schätzungen über die Verbreitung von Slop:
https://ahrefs.com/blog/what-percentage-of-new-content-is-ai-generated
- Auch Originality.ai veröffentlichte u.a. Zahlen zur Schätzung des Antweils KI-generierter Seiten auf den obersten Treffer-Rängen von Google.
https://originality.ai/ai-content-in-google-search-results
- Der im Podcast erwähnte Beitrag zur Ausbreitung von KI-Inhalten in verschiedenen Text-Sorten: Liang, W., Zhang, Y., Codreanu, M., Wang, J., Cao, H., & Zou, J. (2025). The widespread adoption of large language model-assisted writing across society.
https://www.cell.com/patterns/fulltext/S2666-3899(25)00214-4
Verschiedenes:
Der Halloween-Parade-Hoax wurde – wie erwähnt – vor allem im angelsächsischen Raum rund um die Britischen Inseln wahrgenommen und in der Presse kommentiert.
- Wir verlinken hier einen Artikel der BBC mit dem Titel „Hundreds gather at hoax Dublin Halloween parade„
https://www.bbc.com/news/articles/cjr4y1j91x7o
Das Schlaraffenland ist weit über die Erzählung, die man über Märchenbücher kennt hinaus, ein interessantes Thema. Und es macht Spaß und ist auf der anderen Seite auch etwas „creepy„, wenn man sieht, wie genau sich diese skurrile Geschichte als Allegorie auf unseren hochmodernen KI-Slop sozusagen „mappen“ lässt:
- Ein kleiner Beitrag über das Schlaraffenland bei GEOLINO
https://www.geo.de/geolino/redewendungen/19808-rtkl-redewendung-wie-im-schlaraffenland-leben - Man kann sie – wie oben angedeutet – nicht immer uneingeschränkt empfehlen, aber die Wikipedia hat einen gut erzählten Beitrag über das Schlaraffenland.
https://de.wikipedia.org/wiki/Schlaraffenland
Zum Episodenbild:
Pieter Brueghel der Ältere hat diese weltberühmte Vision des Schlaraffenlands um 1576 herum gemalt. Ein Ritter, ein Bauer und ein Gelehrter (also Vertreter aller Stände) liegen – vom vielen Genuss schon leicht adipös aufgequollen – unter einem Baum und warten darauf, dass die dort bereitgestellten Köstlichkeiten sich von selbst auf den Weg zu ihnen machen. Im Hintergrund läuft ein gebratenes Ferkel und an Horizont ist die Mauer aus süßem Hirsebrei zu sehen, die das Schlaraffenland bekanntlich umgibt und durch die sich gerade jemand hindurchgefressen hat. Die Kombination von Überfluss und sündiger Trägheit entspricht natürlich der Moral des ausklingenden Mittelalters, doch als Allegorie für KI-Slop können wir uns kaum etwas Besseres vorstellen.
