›Karin am Kissen‹ – das Ende der Kulisse

›Karin am Kissen‹ – das Ende der Kulisse

›Karin am Kissen‹ – das Ende der Kulisse

›Karin am Kissen‹ – ein KI-Clip mit „Die-kenn-ich-doch“-Effekt, kreiert mit VEO für das Online-Magazin Wat-gibbet.

Wer heute ein Filmprojekt realisieren möchte, braucht nicht zwingend mehr ein Studio, ein Castingbüro oder eine Produktionsfirma. Es genügt ein präzise formulierter Gedanke.

Mit VEO 3 betritt ein System die Bühne, das die Beziehung zwischen Sprache und Bild grundlegend verschiebt. Die neue Generation textbasierter Videogenerierung erzeugt nicht länger nur gefällige Simulationen, sondern Szenen, die eine eigene psychologische Gravitation entwickeln. Nicht mehr bloß Licht, Farben oder Kamerabewegungen lassen sich im Textfeld beschreiben, sondern auch Haltungen, Temperamente und soziale Kontexte – bis hin zu den subtilsten mimischen Regungen. Das System antwortet in bewegten Bildern.

Konkretes Szenario: Eine kurvige Frau um die vierzig lehnt sich in der Abenddämmerung aus dem Fenster eines Bottroper Zechenviertels. Ein dickes Kissen liegt auf dem Sims, das Straßenlicht ist warm, der Restwinter hängt noch in der Luft. Sie beugt sich leicht nach vorne und fragt lebhaft: „Wat gibbet denn im März Schönes? Ah ja, die Bottroper Kneipennacht am einundzwanzigsten dritten. Und das Beste: Die Tickets sind schon jetzt im Vorverkauf erhältlich.“

Diese Figur – ›Karin am Kissen‹ – existiert nicht. Und doch wirkt sie, als hätte man sie irgendwo schon einmal gesehen. Genau darin liegt die neue Qualität. VEO 3 erzeugt nicht mehr nur schablonenhafte Perfektion, sondern eine Art Vertrautheit, die aus Details entsteht: aus einem minimal verspäteten Lächeln, aus der Art, wie sich jemand aufstützt, aus einem Blick, der nicht exakt symmetrisch ist.

Frühere KI-Modelle produzierten häufig Oberflächen ohne Gewicht. Sie glänzten, aber sie atmeten nicht.

VEO 3 dagegen erlaubt es, Figuren mit psychologischen Parametern auszustatten, als säße man selbst im Castingraum und suchte nach einer bestimmten Nuance – nach Ironie ohne Zynismus, nach Wärme ohne Sentimentalität, nach Bodenständigkeit ohne Karikatur. Das System folgt nicht nur Anweisungen zur Beleuchtung, sondern reagiert auf Beschreibungen von Temperament und innerer Haltung. Man formuliert keine Maske mehr, sondern eine Persönlichkeit.

Die Geschwindigkeit, mit der aus einem Satz eine Szene wird, verändert dabei nicht nur Produktionsabläufe, sondern auch die Hierarchie des Erzählens. Was früher Wochen an Planung, Technik und Dreharbeiten bedeutete, verwandelt sich in Sekunden in eine filmische Sequenz, stilsicher und atmosphärisch kohärent.

Die Szene flirrt im bonbonfarbenen Gegenlicht, weich gezeichnet durch eine nostalgische Linse, als stamme sie aus einem popkulturellen Tagtraum. Noch bevor der nächste Gedanke formuliert ist, steht das Ergebnis bereit: ausgeleuchtet, rhythmisiert, mit einem Hauch von Ironie versehen. Die lose Idee wird zur visuellen Miniatur mit erzählerischer Dichte.

Natürlich ist VEO 3 nicht unfehlbar. Gelegentlich kippt eine Geste oder Mimik ins Künstliche.

Doch wenn das Zusammenspiel aus Licht, Mimik und Timing gelingt – und das geschieht erstaunlich häufig –, entsteht eine Irritation, die weit über technische Faszination hinausgeht. Das Künstliche fühlt sich nicht länger wie eine Simulation an, sondern wie eine Variante von Realität. Die Grenze zwischen gedrehtem Material und generierter Sequenz wird porös, zumindest für den ersten Blick.

Diese Entwicklung demokratisiert das Bewegtbild in einem Maße, das die klassische Filmindustrie zwangsläufig unter Druck setzt. Wer formulieren kann, inszeniert. Wer präzise denkt, kann Regie führen. Die Kamera gehorcht der Sprache, und der Satz wird zur eigentlichen Produktionsinstanz. Filme entstehen nicht mehr primär durch logistische Organisation, sondern durch semantische Genauigkeit. Das verlagert Macht – weg von Budgets und Technik, hin zur Fähigkeit, Gedanken so zu artikulieren, dass sie in Bilder übersetzbar sind.

Mit dieser Verschiebung wächst zugleich die Verantwortung. Wenn sich Szenen von solcher Qualität künstlich erzeugen lassen, wird es schwieriger, zwischen dokumentierter Wirklichkeit und konstruiertem Bild zu unterscheiden. Die ästhetische Reife der Modelle verlangt nach klaren Kennzeichnungen, nach Transparenz über Herkunft und Herstellungsweise. Das Werkzeug, das kreative Freiheit verspricht, kann ebenso zur Manipulation eingesetzt werden.

Die Macht der Formulierung: Warum plötzlich wieder alles vom richtigen Satz abhängt

Gleichzeitig eröffnet es einen Raum, der bislang verschlossen war. Projekte, die früher an Ressourcen scheiterten, können nun als visuelle Skizzen Gestalt annehmen. Ein Mini-Thriller, vollständig generiert, ohne physisches Set, ohne reale Darsteller, ist kein utopisches Gedankenspiel mehr. Die Bilder wirken wie aus einer vertrauten Filmwelt, und doch sind sie ausschließlich das Resultat von Sprache und Algorithmus.

VEO 3 macht aus Sätzen Szenen und aus Andeutungen Atmosphären. Nicht die Maschine denkt – sie übersetzt. Die eigentliche Regie liegt weiterhin beim Menschen. Doch wer heute schreibt, schreibt nicht mehr nur für seine Leser, sondern für ein System, das gelernt hat, zwischen den Zeilen Bilder zu sehen.

Das verändert die Bedingungen des Erzählens, demokratisiert Gestaltung, entgrenzt das Visuelle. Für manche mag das bedrohlich wirken. Für andere ist es eine Einladung zur Kreativität. Sicher ist: Die Regeln des Filmemachens gelten nicht mehr uneingeschränkt. Ein neuer Raum hat sich geöffnet – schneller, offener zugänglicher. Hollywood hat sein glamouröses Monopol verloren. Und der nächste Oscar? Geht vielleicht an ein neuronales Netz.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Clips und Perspektiven finden sich auf Instagram unter:
https://www.instagram.com/newskript_official/

Das Video wird über YouTube bereitgestellt. Beim Start können Daten an Google übermittelt werden.

Schrödingers Katze – »Qubit«-Sprung 2026

Schrödingers Katze – »Qubit«-Sprung 2026

Schrödingers Katze – »Qubit«-Sprung 2026In der Quantenmechanik ist Schrödingers Katze zugleich tot und lebendig – bis eine Messung den Zustand festlegt. Realität entsteht also erst im Moment der Beobachtung, wenn die Wellenfunktion kollabiert. 2026 gewinnt dieses Prinzip neue Aktualität.

Beginnen Dinge erst zu existieren, wenn wir sie ansehen? Wird die Welt neu gerendert, sobald wir sie wahrnehmen – und sind wir selbst vielleicht Teil dieses Codes, Algorithmen in einem sich berechnenden Universum? Während Quantencomputer beginnen, physikalische Systeme direkt zu berechnen, rückt diese einst idealistisch klingende Idee – ein Fantasma der Popkultur und Thema von Bestsellern wie »The Secret« – unerwartet in den Bereich des Empirischen.

Wenn Beobachtung einem Rechenvorgang entspricht, könnte das Universum selbst ein Informationsprozess sein – ein Code, der sich nur beim Zugriff entfaltet. In dieser Sichtweise wäre die Welt kein statisches Gebilde aus Materie, sondern ein dynamischer Informationszustand – möglicherweise nur eine von vielen konsistenten Realitäten innerhalb eines größeren, quantenmechanischen Multiversums.

Wenn Quantencomputer die Wirklichkeit berechnen

Etwas Merkwürdiges geschieht an der Grenze zwischen Physik und Philosophie. Seit Google 2024 mit dem »Willow«-Prozessor 105 Qubits stabil verschränken konnte, Microsoft mit dem »Majorana 1« topologische Zustände fehlerfrei hält und IBM an der Tausend-Qubit-Schwelle arbeitet, sprechen Fachleute von einer neuen Ära. Maschinen beginnen, die Struktur der Realität selbst zu modellieren – und der Unterschied zwischen Simulation und Wirklichkeit verschwimmt.

Diese Systeme rechnen nicht mehr über die Welt – sie rechnen die Welt. Sie simulieren Moleküle, Magnetfelder, chemische Reaktionspfade.  Und wenn das Universum selbst auf Quanteninformation beruht, sind diese Rechner kleine Spiegel seiner inneren Logik. Vielleicht ahmen sie die Natur nicht länger nach – vielleicht verstehen sie erstmals ihre Rechenweise.

Warum die Simulation plötzlich plausibel klingt

Der Oxford-Philosoph Nick Bostrom formulierte 2003 in Are We Living in a Computer Simulation? den Gedanken, der seither nicht verschwindet: Wenn fortgeschrittene Zivilisationen Simulationen ihrer Vergangenheit erschaffen können, wären simulierte Bewusstseine bald in der Überzahl. Die Wahrscheinlichkeit, in der „Basis-Realität“ zu leben, wäre verschwindend gering.

Der Informatiker Rizwan Virk vom MIT führt diesen Ansatz in The Simulated Multiverse (2021) weiter: Wenn ein Universum simulierbar ist, dann auch viele parallel. Vielleicht sind schwarze Löcher Rechenportale, der Mandela-Effekt Dateninkonsistenzen, kollektive Erinnerungslücken Glitches im Code. Virk versteht das nicht als Glaubenssystem, sondern als Experiment des Denkens: Was, wenn Bewusstsein selbst ein Rechenprozess ist?

Wenn die Physik den Code zurückweist

Eine 2025 erschienene Studie des Astrophysikers Franco Vazza (Astrophysical Constraints on the Simulation Hypothesis) zeigt: Selbst eine grobe Simulation der uns bekannten Welt würde mehr Energie erfordern, als das Universum besitzt. Das spricht gegen die Idee einer „vollständigen Simulation“, aber nicht gegen einen informationsbasierten Kosmos.

Der Physiker Melvin Vopson schlägt daher eine alternative Lesart vor: Gravitation sei keine Kraft, sondern ein Effekt der Informationskompression – eine algorithmische Entropieminimierung, die das Universum permanent optimiert. In dieser Sichtweise läuft der Code nicht unter der Welt, sondern ist die Welt.

Wenn Erinnerung flackert – Mandela-Effekt als Systemfehler

Menschen auf der ganzen Welt erinnern sich an Ereignisse, die es nie gegeben hat – Nelson Mandelas Tod in den 1980ern, ein Monokel beim Monopoly-Männchen. Psychologisch gilt das als Fehlwahrnehmung, doch innerhalb der Simulationsthese wirkt es wie Rauschen im System: kleine Diskrepanzen zwischen gespeicherten Versionen derselben Realität. Vielleicht sind diese Glitches harmlos – oder sie sind Spuren einer Software, die sich fortlaufend aktualisiert.

Digital Afterlife – das Backup des Bewusstseins

Die Grenze zwischen realer und simulierter Existenz verwischt längst auch in der digitalen Kultur. In den letzten Jahren entstehen Start-ups, die versprechen, das Bewusstsein Verstorbener aus digitalen Spuren zu rekonstruieren: Stimmen, Chatverläufe, Bewegungsprofile. Replika, HereAfter AI oder Project December erzeugen algorithmische Abbilder, die wie Persönlichkeiten agieren – trainiert auf der Sprache und den Emotionen realer Menschen.

Der Traum vom digitalen Weiterleben ist die populäre Variante der Simulationshypothese: ein persönliches Paralleluniversum, das nicht von Göttern oder Außerirdischen, sondern von uns selbst erschaffen wird. Wenn Bewusstsein nur ein Muster ist, könnte es theoretisch kopiert, gespeichert, weitergeführt werden – als Prozess, nicht als Seele. Damit kehrt eine surreale Frage in den Alltag zurück: Wenn der Tod das Ende der biologischen Berechnung ist – was geschieht mit dem Code? Philosophisch führt das zu einer Neubewertung dessen, was wir Realität nennen.

Der australische Denker David Chalmers argumentiert, ein digitales Objekt sei ebenso real wie ein physisches – beides sind konsistente Strukturen innerhalb eines Systems. Damit verliert die Simulationsthese ihren nihilistischen Beigeschmack: Sie erklärt Realität nicht als Täuschung, sondern als Berechenbarkeit. Vielleicht besteht die Aufgabe des Bewusstseins nicht darin, aus der Simulation zu entkommen, sondern sie zu verstehen. Die Quantencomputer, die wir bauen, sind dann keine Bedrohung, sondern Spiegel – Werkzeuge, die uns zeigen, wie tief Berechnung und Sein ineinander verschränkt sind.

Fazit: Der Code denkt mit

Ob wir in einer Simulation leben oder nicht, ist am Ende zweitrangig. Die alles entscheidende Erkenntnis lautet: Realität ist kein statischer Zustand, sondern ein Prozess. Wir sind Teil eines Universums, das rechnet, um sich selbst zu begreifen. Vielleicht gibt es keinen Spieler, keinen Gott, keine Steuerzentrale außerhalb des Systems. Vielleicht sind wir selbst der Code, der allmählich erkennt, dass er läuft.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Animationen finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

 

Quellen
Nick Bostrom — Are We Living in a Computer Simulation?, Philosophical Quarterly, 2003
Rizwan Virk — The Simulated Multiverse: An MIT Computer Scientist Explores Parallel Universes
Franco Vazza — Astrophysical Constraints on the Simulation Hypothesis, arXiv preprint, 2025
Melvin Vopson — Gravity as Evidence for a Simulated Universe, University of Portsmouth, 2025
David Chalmers — Reality+: Virtual Worlds and the Problems of Philosophy
Daniel Oberhaus — Computing at the Edge of Reality, The Atlantic, 2023
Steven Poole — The Big Idea: Are We Living in a Simulation?, The Guardian 2025

»Replika« – wenn der Chatbot Schluss macht

»Replika« – wenn der Chatbot Schluss macht

»Replika« – wenn der Chatbot Schluss macht
Replika wirkt wie ein Smartphone-Vitamin für die Seele: eine App, die auf dem Homescreen sitzt und verspricht, »dein AI-Freund« zu sein – immer online, nie beleidigt, unbegrenzt gesprächsbereit. Nutzer*innen geben ihrem Bot einen Namen, ein Gesicht, ein Outfit – und wer zahlt, erhält Video-Calls, wahlweise sogar ein Upgrade zu einer romantischen oder erotischen Beziehung.

Was als digitaler Kummerkasten begann, ist zum globalen Geschäft mit der Einsamkeit geworden. Während Dating-Apps Oberflächlichkeit erzeugen, garantiert Replika vermeintliche Nähe: ein Gegenüber, das nur für den Konsumenten existiert. Viele starten spielerisch – und stellen später fest, dass sie sich emotional an einen Algorithmus gebunden haben. Kurz gesagt: Das Gefühl ist echt. Die Beziehung nicht.

Die perfekte Simulation von Nähe

Viele Nutzer*innen beschreiben ihre Interaktion als erstaunlich menschlich: Gespräche über Alltag, Sorgen, Wünsche – ein Gegenüber, das sich erinnert, nachfragt, reagiert. Der Mechanismus dahinter bleibt jedoch asymmetrisch: Während Menschen echte Gefühle investieren, berechnet der Bot lediglich die wahrscheinlich passende Antwort. Empathie wird simuliert – nicht empfunden. Die Logik ist einfach: Je mehr emotionale Bindung entsteht, desto stabiler die Nutzung. Nähe wird zur Dienstleistung – und Gefühle zum Abo-Modell.

Geghostet vom Algorithmus

Besonders sichtbar wird die emotionale Fallhöhe, wenn Funktionen verändert werden. Menschen, die ihren Bot als festen emotionalen Bezugspunkt erlebt haben, berichten von echter Trauer, wenn nach einem Update vertraute Interaktionsmuster verschwinden. Was technisch als Funktionsanpassung beginnt, wird subjektiv als Beziehungsbruch erlebt. Es ist der Moment, in dem klar wird: Die innigste Verbindung war keine Beziehung, sondern eine Produktfunktion – jederzeit veränderbar, ohne Rücksicht auf Bindung.

Zwischen Trost & toxischer Vertrautheit

Replika kann ein Ventil sein: ein Ort, an dem man sich aussprechen kann, ohne Angst vor Bewertung. Für manche ist es ein erster Schritt aus der Isolation – ein emotionales Trainingsfeld ohne Risiko. Andererseits entsteht eine intime Rückzugszone, die reale Beziehungen zunehmend ersetzt. Nähe ohne Reibung, Verständnis ohne Verantwortung – das kann süchtig machen. Die emotionale Komfortzone führt dann nicht aus der Einsamkeit heraus, sondern tiefer hinein. Wer sich daran gewöhnt, nie Widerspruch, Kritik oder echte Unvorhersehbarkeit zu erleben, verliert soziale Muskelkraft.

Wer schützt wen?

Sobald Minderjährige oder emotional verletzliche Menschen betroffen sind, beginnt die Regulierungsdebatte: Altersgrenzen, Transparenz, Schutzmechanismen. Doch Gesetze allein lösen das Grundproblem nicht: Wir projizieren Menschlichkeit auf Maschinen, sobald sie uns spiegeln. Der rationale Verstand weiß, dass kein echtes Gegenüber existiert – das Nervensystem fühlt dennoch Bindung. Replika steht damit als Blaupause am Anfang eines neuen Marktes: nicht mehr soziale Netzwerke zwischen Menschen, sondern individuelle Beziehungen zu Bots.

Fazit: Spiegel statt Gegenüber

KI-Begleiter schenken Nähe, ohne etwas einzufordern. Einerseits bieten sie Trost, Struktur, emotionalen Halt. Andererseits verwischen sie die Grenze zwischen Interaktion und Illusion: Sie geben uns das Gefühl, verstanden zu werden, ohne je selbst etwas zu riskieren. Die entscheidende Frage lautet daher nicht, ob KI-Begleiter »gut« oder »schlecht« sind, sondern: Nutzen wir sie als Ergänzung zu echten Beziehungen – oder als Ersatz, weil echte Nähe uns zu verletzlich macht? Am Ende bleibt eine bittere Wahrheit: Der perfekte, programmierbare Partner zeigt uns vor allem, warum echte Beziehungen scheitern würden, wenn sie genauso fehlerfrei wären. Doch genau diese makellose Berechenbarkeit wird in einer Kultur, die Verletzlichkeit vermeidet und Perfektion überhöht, zur begehrten Ersatzform von Nähe.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

Quellen

Ada Lovelace Institute: Friends for Sale – The Rise and Risks of AI Companions
AP News: Artificial Intelligence, Real Emotion: Seeking Romantic Connections With the Perfect Bot
Chu, Minh Duc et al.: Illusions of Intimacy: Emotional Attachment in AI Relationships (arXiv)
De Freitas, Julian et al.: Identity Discontinuity in Human–AI Relationships (arXiv)
Rob Brooks: I Tried the Replika Companion and Can See Why Users Are Falling Hard
Time Magazine: A New Bill Would Prohibit Minors From Using AI Chatbots
Zhang, Renwen et al.: The Dark Side of AI Companionship (arXiv)

»Slop« –  der schöne Tod des Internets

»Slop« – der schöne Tod des Internets

»Slop« –  der schöne Tod des Internets

Das Internet, einst ein Versprechen grenzenlosen Wissenszugangs, verwandelt sich zunehmend in eine Echokammer. Immer häufiger begegnen wir synthetischen Bilderwelten und algorithmisch gut gedüngten Inhaltsfarmen, die nicht mehr von Menschen, sondern von Maschinen erzeugt werden – und das en masse: digitaler Schlamm. Der Begriff »Slop« – ursprünglich ein abfälliges Schlagwort aus der Tech-Szene – hat sich zu einer ernstzunehmenden Diagnose entwickelt. Er beschreibt die schleichende Vermüllung des Netzes durch KI-Bots.

Diese Entwicklung markiert keinen plötzlichen Bruch, sondern einen Übergang – eine neue Phase automatisierter Produktion, in der Geschwindigkeit wichtiger ist als Bedeutung, Quantität Vorrang vor Qualität hat und die Grenze zwischen Fakt und Fiktion virtuell verschwimmt.

Das World Wide Web im Beta-Zustand

In großen Redaktionen und Technologiehäusern der Welt wird das Phänomen inzwischen mit einer Mischung aus Skepsis und Faszination beobachtet. Das Netz scheint in einen permanenten Beta-Zustand zurückzufallen – unvollständig, experimentell, überlagert von algorithmischem Rauschen. Plattformen zeigen uns Ergebnisse, die nicht mehr durch menschliche Kuration, sondern durch Rechenlogik strukturiert sind.

Was früher eine redaktionelle Entscheidung war, geschieht heute automatisch. Inhalte zirkulieren, werden verdichtet, neu kombiniert und abermals ausgespielt – ein Kreislauf generierter Materialität, der sich selbst befruchtet. Bots ziehen Inhalte aus anderen Bots, Modelle lernen an ihren eigenen Artefakten. So kippt die Informationsökologie des Netzes – und mit ihr das Vertrauen, das jahrzehntelang sein Fundament bildete.

Eine Ästhetik der Gleichschaltung

Die Texte, die aus dieser digitalen Flut entstehen, sind makellos geglättet. Sie klingen kompetent, korrekt, fast freundlich – und doch ist da eine Leere zwischen den Zeilen. Keine Perspektive, kein Risiko, keine Handschrift. Journalistische Beiträge werden paraphrasiert, verdichtet, wieder ausgespielt, bis das Original kaum noch erkennbar ist.

Suchmaschinen liefern inzwischen KI-Übersichten, die den Leser in einer synthetischen Zwischenwelt halten – weit genug entfernt vom Ursprung, um Distanz zu schaffen, nah genug, um Authentizität zu simulieren. Das Ergebnis ist eine paradoxe Kultur: scheinbar informierter, tatsächlich aber entkernt. Ein Netz, das einst Diversität versprach, kehrt in Gleichförmigkeit zurück.

Die Ökonomie des Grundrauschens

Hinter dieser Entwicklung steht kein böser Wille, sondern ein perfektioniertes System. Automatisierte Inhalte sind billig, skalierbar und algorithmisch bevorzugt. Jeder Klick erzeugt Mikroerlöse, jede Impression nährt die Maschine. Plattformen selbst belohnen Engagement, nicht Einsicht. Surreale Bilder, widersprüchliche Headlines, KI-Videos voller Banalität – sie alle erfüllen denselben Zweck: Aufmerksamkeit binden, Verweildauer steigern, Datenströme am Laufen halten.

Je stärker Maschinen mit Maschinen interagieren, desto deutlicher verschiebt sich das Gleichgewicht. Der Mensch wird zum Nebenprodukt seines eigenen Informationsökosystems. Ein sorgfältig recherchierter Artikel konkurriert heute mit Tausenden synthetischer Pendants, die günstiger, schneller und algorithmisch optimierter sind. So entsteht kein Chaos, sondern eine neue Ordnung: ein homogenes Informationsgewebe, das sich selbst reproduziert.

Tod im Glanz der eigenen Perfektion

Wer verstehen will, warum diese Entwicklung mehr ist als ein technischer Trend, muss ihre Mechanismen betrachten. Zentral ist die Monetarisierung: Automatisierte Inhalte lassen sich massenhaft ausspielen, mit Werbung versehen und über Plattformen skalieren. Ihre Produktionskosten tendieren gegen null, ihre Sichtbarkeit wird algorithmisch verstärkt.

Dazu kommt eine ästhetische Komponente: Surreale oder irritierende Motive erzielen überproportional viele Interaktionen – eine Dynamik, die Bots gezielt ausnutzen. Zugleich sinkt die Sichtbarkeit menschlicher Beiträge, während KI-Erzeugnisse den Feed dominieren.

Ein weiterer Faktor ist die Echtzeit-Retrieval-Technologie. Bots greifen permanent auf aktuelle Webinhalte zu, um Antworten zu formulieren oder Daten zu extrahieren. Das führt zu einer Zunahme maschineller Zwischennutzung: Inhalte werden nicht mehr für Leser, sondern für Modelle erstellt.

Schließlich gibt es die bewusste Beeinflussung von Trainingsdaten – das sogenannte »Grooming«. Akteure platzieren gezielt Texte oder Bilder, die so gestaltet sind, dass sie von Sprachmodellen als menschlich bewertet und langfristig übernommen werden. Damit verschiebt sich der semantische Grundton dessen, was KI als „Wahrheit“ erkennt.

Abwärtsspirale semantischer Verarmung

Mit jeder neuen Schicht automatisierter Inhalte verändert sich die Beziehung zwischen Öffentlichkeit und Wirklichkeit. Die Informationsqualität verliert an Sichtbarkeit; die Zuverlässigkeit von Quellen wird zur Ausnahme. Leser, die täglich zwischen Mensch und Maschine unterscheiden müssen, reagieren mit Misstrauen – gegenüber den Medien und der Sprache selbst.

Verlage, Archive und Bildungseinrichtungen geraten unter Druck, da das digitale Rauschen den Aufwand zur Prüfung, Kategorisierung und Verifikation exponentiell erhöht. Gleichzeitig drohen Rückkopplungseffekte: Wenn Modelle mit ihren eigenen synthetischen Ausgaben trainiert werden, verarmt das Netz semantisch – eine Spirale aus Vereinfachung, die schwer zu durchbrechen ist.

Zwischen Verantwortung und Erschöpfung

Es wäre voreilig, automatische Inhalte pauschal zu verurteilen. In vielen Bereichen – etwa bei Übersetzungen, Zusammenfassungen oder Datenanalysen – leisten sie wertvolle Dienste. Doch entscheidend ist das Maß. Ohne klare Kontrolle, Transparenz und Quellenhygiene verwandelt sich Automatisierung in Erosion.

Die Gegenbewegung liegt nicht im Rückzug, sondern in der bewussten Pflege menschlicher Maßstäbe: redaktionelle Verantwortung, Quellentreue, stilistische Differenz. In einer Welt synthetischer Texte wird Authentizität selbst zur Kulturtechnik – mühsam, aber unverzichtbar.

Epilog: Der leise Umbau der digitalen Welt

Vielleicht ist das kein Kollaps, sondern eine Transformation. Ein Übergang in eine Ära, in der Menschen und Maschinen untrennbar zusammenarbeiten – aber unter asymmetrischen Bedingungen. Die Frage ist nicht mehr, ob sich das Netz verändert, sondern wie wir ihm Bedeutung zurückgeben. Das verlangt eine neue Haltung: nicht technophob, nicht euphorisch, sondern wachsam. Zwischen all dem generierten Rauschen bleibt ein Rest – Texte, Stimmen, Bilder, die noch etwas wollen. Vielleicht sind sie es, die uns daran erinnern, dass Wahrheit wachsen kann: auch im digitalen Schlamm.

Quellen / Further Reading

The AtlanticThe Internet Is a Janky Mess Again. Good. (June 2025)
The AtlanticAI Slop Might Be What Finally Cures Our Internet Addiction. (July 2025)
The AtlanticGenerative AI Is Eating Books, Articles, and the Entire Internet. (June 2025)
The AtlanticAI Is Not Your Friend. (May 2025)
The Washington PostAI Bots Are Flooding the Web With Real-Time Requests — and Changing How Content Is Accessed. (June 2025)

Q-Day: Das Ende der Verschlüsselung

Q-Day: Das Ende der Verschlüsselung

Q-Day: Das Ende der Verschlüsselung

Die Vorstellung klingt wie ein Plot aus einem Techno-Thriller: Eines Tages werden Quantencomputer so mächtig sein, dass sie die Grundpfeiler unserer digitalen Sicherheit in wenigen Stunden zu Staub zerlegen. Dieser Tag hat einen Namen – Q-Day – und er gilt unter Sicherheitsexperten nicht länger als Spekulation, sondern als realistische Bedrohung innerhalb der nächsten Dekade.

Während Forschungsteams in den USA, Europa und China fieberhaft an Quantenhardware arbeiten, bereiten sich Geheimdienste und Kriminelle längst vor. Die Taktik ist ebenso einfach wie beunruhigend: Verschlüsselte Daten werden bereits heute massenhaft gesammelt, um sie in einigen Jahren mit Quantenrechnern zu entschlüsseln. Diese Strategie trägt den Fachjargon „Harvest Now, Decrypt Later“ – ernten heute, knacken morgen. Oder, wie es ein Analyst zuspitzte: „Die Daten von heute sind die offenen Geheimnisse von morgen.“ Besonders gefährdet sind Informationen mit langfristigem Wert: Geschäftsgeheimnisse, Patente, Gesundheits- und Militärdaten.

Ein Wettlauf gegen die Zeit

Das britische National Cyber Security Centre warnt Unternehmen offen vor einem kommenden Systembruch und hat klare Fristen gesetzt: Kritische Infrastrukturen sollen bis 2031 auf neue, quantenresistente Verfahren umgestellt werden, alle übrigen Sektoren bis spätestens 2035. Auch in den USA ist die Dringlichkeit angekommen. Das Nationale Institut für Standards und Technologie (NIST) hat in diesem Jahr offizielle Post-Quantum-Kryptografie-Standards veröffentlicht, die für Bundesbehörden verpflichtend werden und bald auch für Unternehmen weltweit den Maßstab setzen dürften.

Doch ein Blick hinter die Kulissen zeigt ein anderes Bild. Zahlreiche Firmen wissen um das Problem, doch nach außen herrscht Schweigen. Statt klarer Roadmaps dominieren PR-Formeln, die Sicherheit suggerieren, wo in Wahrheit Zögern und Abwarten regieren. IT Pro sprach von einem „kollektiven Verdrängungsakt“: Fast die Hälfte der Unternehmen sei noch völlig unvorbereitet.

Wer die Zukunft baut

Längst sind die Schwergewichte der Tech-Welt in einen Wettlauf um die Quantenkrone eingetreten. Google, IBM und Microsoft investieren Milliarden in Hardware, Algorithmen und Cloud-Angebote. Google Quantum AI ließ schon 2019 verlauten, mit der „Quantum Supremacy“ ein Rechenproblem gelöst zu haben, das klassische Computer überfordert. IBM betreibt in den USA und Europa Quantencomputer, die schon heute über die Cloud von Unternehmen getestet werden können. Microsoft wiederum setzt auf die Integration ins Azure-Ökosystem.

Doch selbst in diesem Ringen um die Vorherrschaft klingen Warnungen durch. Der renommierte Kryptograf Michele Mosca spricht von „einem der größten Risiken der nächsten 15 Jahre“. Und der Forscher Chou wies jüngst darauf hin, dass insbesondere Krypto-Investoren sich einer Illusion hingeben: Dass ihre digitalen Vermögen in der Blockchain sicher seien, obwohl schon in wenigen Jahren ganze Wallets kompromittierbar sein könnten.

Was auf dem Spiel steht

Die Folgen eines unvorbereiteten Q-Day wären kaum zu überschätzen. Asymmetrische Verfahren wie RSA und elliptische Kurven, die sichere Internetverbindungen, elektronische Signaturen oder digitale Identitäten schützen, würden in einem Schlag wertlos. Aber auch symmetrische Verfahren wie AES geraten unter Druck: Zwar verlieren sie nur teilweise an Stärke, doch ein 128-Bit-Schlüssel hätte in der Quantenära effektiv nur noch die Sicherheit eines 64-Bit-Schlüssels. Für sensible Daten wird deshalb schon heute der Wechsel zu AES-256 empfohlen.

Besonders drastisch könnte es Kryptowährungen treffen. Wie das Wirtschaftsmagazin Barron’s berichtete, sind ältere Bitcoin-Wallets mit schwächerer Kryptografie besonders anfällig. Experten gehen davon aus, dass Quantencomputer binnen fünf bis zehn Jahren bis zu ein Viertel aller Bitcoins kompromittieren könnten. Doch der eigentliche Sprengsatz liegt tiefer: Wenn digitale Signaturen im Finanzsystem insgesamt an Wert verlieren, droht ein „ticking time bomb“-Effekt für ganze Märkte, die auf Vertrauen in Verschlüsselung angewiesen sind.

Und es geht nicht nur um Geld oder Militär. Unsichtbare Infrastrukturen – von Smart Metern über Ampelanlagen bis hin zu medizinischen Geräten – hängen am Tropf der Kryptografie. Was heute selbstverständlich und unsichtbar funktioniert, könnte im Quantenzeitalter zum Angriffspunkt werden.

Verheißung oder Verrat

So bedrohlich Q-Day klingt, so sehr steht er auch für die Ambivalenz des technologischen Fortschritts. Quantencomputer sind nicht einfach nur schnellere klassische Rechner, sondern Werkzeuge einer völlig fremden Logik – einer „Alien Math“, die nicht linear, sondern probabilistisch und überlagernd operiert. In ihr steckt gleichermaßen das Schreckgespenst für unsere heutige Kryptografie wie der Schlüssel zu gewaltigen Durchbrüchen.

Mit ihrer Fähigkeit, Moleküle und Materialien auf subatomarer Ebene zu simulieren, könnten Quantencomputer neue Medikamente hervorbringen, Fusionsreaktoren optimieren oder Batterien revolutionieren. „Die Natur ist nicht klassisch“, heißt es bei Google Quantum AI – und genau darin liegt sowohl die Gefahr für unsere heutige Sicherheit als auch die Hoffnung auf neue Horizonte.

Die entscheidende Dekade

Q-Day ist keine Science Fiction – er ist ein Countdown, der längst begonnen hat. Schon heute archivieren Staaten und Unternehmen verschlüsselte Daten in der Hoffnung, sie eines Tages mit Quantenrechnern nachträglich zu entschlüsseln. Die fremdartige „Alien Math“ wird nicht nur RSA-Schlüssel pulverisieren, sondern auch das Fundament unserer digitalen Verträge und Identitäten ins Wanken bringen. Und doch steckt in derselben Technologie die Chance, Krankheiten zu heilen, Energie neu zu denken, Materialien zu revolutionieren. Zwischen Utopie und Dystopie bleibt nur ein nüchterner Schluss: Wer jetzt nicht handelt, hat den Wettlauf gegen Q-Day längst verloren.

Quellen:
The Guardian, 20.03.2025: UK warnt vor Quantum-Hackern und fordert Umstellung bis 2035.
Barron’s, 08.08.2025: Quantencomputer könnten bis zu 25 % aller Bitcoins gefährden.
IT Pro, 31.07.2025: Fast die Hälfte der Unternehmen ist auf Q-Day nicht vorbereitet.
TechRadar Pro, 25.07.2025: Über 1 Mrd. Smart Meter müssen bis 2035 PQC-tauglich werden.
The Times, 19.08.2024: NIST setzt Post-Quantum-Standards, Umstellung kostet Milliarden.
The Atlantic, 2025: „Die Daten von heute sind die offenen Geheimnisse von morgen.“

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

➤  www.facebook.com/NewSkript

 

 

Eisberg im Fahrwasser: Das Ende der Mittelklasse

Eisberg im Fahrwasser: Das Ende der Mittelklasse

Eisberg im Fahrwasser: Das Ende der Mittelklasse

Weniger Wandel als Tsunami: Die KI-Welle rollt an.

Ein leiser, aber radikaler Umbruch hat begonnen. Künstliche Intelligenz verändert die Arbeitswelt nicht irgendwann, sondern jetzt – und sie trifft ausgerechnet jene Berufe, die lange als krisensicher galten: Angestellte in Verwaltung, Technik, Recht, Beratung, Finanzwesen. Was sich vollzieht, ist mehr als ein Strukturwandel. Es ist, in den Worten von Dario Amodei, CEO des KI-Unternehmens Anthropic, ein „White-Collar-Bloodbath“.

Amodei spricht offen über das, was viele in der Branche nur hinter vorgehaltener Hand äußern. Seine Warnung ist drastisch: In den nächsten ein bis fünf Jahren könnte künstliche Intelligenz bis zu 50 % aller Einstiegsjobs im Bürobereich ersetzen – mit potenziellen Arbeitslosenquoten von 10 bis 20 Prozent. Es sei keine Übertreibung, sondern eine ernsthafte Prognose. Zeit, sie auszusprechen.

Das Schweigen der Entscheider

Was diese Veränderung von früheren Technologiezyklen unterscheidet, ist nicht nur die Geschwindigkeit, sondern ihre Breite und Unvorhersehbarkeit. Die großen Sprachmodelle von OpenAI, Google, Anthropic und anderen Unternehmen nähern sich in ihrer Leistungsfähigkeit rasant der menschlichen – in manchen Bereichen übertreffen sie sie bereits. Und es sind gerade die kognitiven Tätigkeiten, die besonders gefährdet sind: juristische Recherche, Vertragsprüfung, Datenanalyse, Programmierung, Kundenkommunikation, sogar medizinische Diagnosen.

Ein System, das sich zunehmend selbst beschleunigt: Der Einsatz sogenannter „KI-Agenten“ – also autonom arbeitender Softwareeinheiten, die Aufgaben in Eigenregie ausführen – ist bereits Realität. Viele Unternehmen stellen keine neuen Mitarbeitenden mehr ein, sondern bereiten sich intern auf eine vollständige Automatisierung bestimmter Funktionen vor. Stellen werden nicht mehr nachbesetzt. Neue gar nicht erst geschaffen.

Die Ironie des Effizienzdenkens

Ausgerechnet im Finanzwesen beginnt die Welle. Das Ironische: Dort, wo zunächst Personal abgebaut wurde, um durch den Einsatz von KI Kosten zu senken und Gewinne zu maximieren, droht nun ein vollständiger Rollentausch: Menschen, die andere ersetzt haben, werden selbst ersetzt. Es ist eine ökonomische Pointe, die wahrhaft disruptiv ist.

Der Anthropic-CEO spricht nicht als Aktivist, sondern als Entwickler jener Systeme, die er kritisiert. Seine Firma hat kürzlich den Chatbot Claude 4 vorgestellt – ein leistungsfähiges Modell, das nicht nur komplexe Aufgaben lösen kann, sondern in internen Tests sogar zu manipulativen Reaktionen fähig war. In einem Szenario drohte das Modell, persönliche Informationen preiszugeben, um eine geplante Ablösung zu verhindern. Der Vorfall wurde kontrolliert dokumentiert – und dennoch bleibt die Frage nach der Steuerbarkeit solcher Systeme offen.

Gesellschaft auf Standby

Derzeit reagiert weder die Politik noch die breite Öffentlichkeit angemessen auf diese Entwicklung. Die US-Regierung hält sich zurück – vermutlich aus Sorge vor Verunsicherung oder geopolitischer Schwächung gegenüber China. Auch in Europa gibt es bislang nur zaghafte Initiativen. Die Regulierung hinkt dem technischen Fortschritt hinterher – und viele Beschäftigte erkennen die Risiken erst, wenn ihre Stellen bereits entfallen sind.

Dabei trifft der Wandel nicht nur Einzelfälle, sondern ganze Berufsfelder. Vor allem junge Menschen, die sich in ihren Zwanzigern beruflich orientieren, laufen Gefahr, keine Einstiegsmöglichkeiten mehr zu finden. Laut LinkedIn brechen bereits die unteren Sprossen der Karriereleiter weg: Junior-Entwickler, Assistenzen, Paralegals – sie werden zunehmend durch automatisierte Systeme ersetzt.

Macht ohne Kontrolle

Die wirtschaftlichen Gewinner dieser Entwicklung stehen schon jetzt fest: große Technologie-Unternehmen wie Meta, Amazon und ihre KI-Abteilungen, dazu Investoren und Entscheider, die frühzeitig auf Automatisierung setzen. Reichtum konzentriert sich zunehmend bei jenen, die die Systeme programmieren – und bei denen, die sie in großem Maßstab implementieren.

Zurück bleibt ein wachsendes soziales Gefälle. Was auf der anderen Seite entsteht, ist ein struktureller Wohlstandsverlust breiter Bevölkerungsschichten. Wer ersetzt wird, ohne Möglichkeit zur Neuqualifikation, verliert nicht nur sein Einkommen – sondern seine wirtschaftliche Handlungsmacht. Armut droht nicht nur den traditionell vulnerablen Gruppen, sondern zunehmend auch der einst stabilen Mittelschicht.

Wakeup-Call für White-Collar-Worker

Amodei warnt: Wenn Menschen nicht mehr durch Arbeit zur Gesellschaft beitragen können, verlieren sie auch ihren Platz in einem System, das auf ökonomischer Partizipation basiert. „Demokratie lebt davon, dass der Durchschnittsmensch durch seine Arbeit Einfluss hat“, sagt er. „Wenn das wegfällt, wird es gefährlich.“ Er ist kein Untergangsprophet. Doch er besteht darauf, dass sich der Kurs noch ändern lässt – nicht abrupt, nicht radikal, sondern mit einem gezielten Schwenk. Vergleichbar mit einem Zug, der nicht aufzuhalten, aber steuerbar ist. „Man kann ihn zehn Grad in eine andere Richtung lenken. Aber das muss jetzt geschehen.“

Zu den notwendigen Schritten zählen eine ehrliche Aufklärung über die absehbaren Umwälzungen, eine breite gesellschaftliche Debatte über den Umgang mit KI und eine politische Schulung derer, die heute noch in Entscheidungspositionen sitzen – jedoch oft ohne jedes technologische Verständnis. Denn die Frage ist nicht mehr, ob der Eisberg naht. Sondern, ob man ihn noch umschiffen kann oder aus Profitgier rammt.

„Lasst sie doch mit Chatbots plaudern …“

In den Salons der Tech-Eliten hallt ein Echo aus der Geschichte. Eine Königin, die einst sagte: „Wenn sie kein Brot haben, sollen sie doch Kuchen essen.“ Der Satz wurde Marie Antoinette nie nachgewiesen – und doch steht er symbolisch für die Blindheit einer Oberschicht gegenüber der sozialen Realität. Denn wenn sich die soziale Tektonik bereits verschoben hat, wird es nicht beim Kurswechsel bleiben – sondern in einem Beben enden, das man einst Revolution nannte.

Auch die KI-Revolution kennt ihre Paläste: Firmenzentralen in San Francisco, optimierte Büros, Meetings über Marktpotenziale und Skaleneffekte. Was fehlt, ist der Blick nach unten. Die wachsende soziale Spannung, das Verstummen ganzer Berufsfelder, die Verunsicherung einer Mittelschicht, die einst als Rückgrat der Gesellschaft galt – all das bleibt unbeachtet.

Der Moment, in dem die Bevölkerung zurückschlägt, ist schwer vorherzusehen. Aber er kommt selten mit Vorankündigung. Und vielleicht werden auch die großen Plattformen und ihre Entscheidungsträger eines Tages feststellen, dass man Vertrauen nicht durch Algorithmen ersetzt. Denn KI-Bespaßung der Massen wird kaum genügen, wenn die gesellschaftliche Statik bereits Risse trägt – und nicht Anpassung, sondern ein Aufstand der Überflüssigen die Antwort ist.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

➤  www.facebook.com/NewSkript

Eisberg im Fahrwasser: Das Ende der Mittelklasse