»Slop« –  der schöne Tod des Internets

»Slop« – der schöne Tod des Internets

»Slop« –  der schöne Tod des Internets

Das Internet, einst ein Versprechen grenzenlosen Wissenszugangs, verwandelt sich zunehmend in eine Echokammer. Immer häufiger begegnen wir synthetischen Bilderwelten und algorithmisch gut gedüngten Inhaltsfarmen, die nicht mehr von Menschen, sondern von Maschinen erzeugt werden – und das en masse: digitaler Schlamm. Der Begriff »Slop« – ursprünglich ein abfälliges Schlagwort aus der Tech-Szene – hat sich zu einer ernstzunehmenden Diagnose entwickelt. Er beschreibt die schleichende Vermüllung des Netzes durch KI-Bots.

Diese Entwicklung markiert keinen plötzlichen Bruch, sondern einen Übergang – eine neue Phase automatisierter Produktion, in der Geschwindigkeit wichtiger ist als Bedeutung, Quantität Vorrang vor Qualität hat und die Grenze zwischen Fakt und Fiktion virtuell verschwimmt.

Das World Wide Web im Beta-Zustand

In großen Redaktionen und Technologiehäusern der Welt wird das Phänomen inzwischen mit einer Mischung aus Skepsis und Faszination beobachtet. Das Netz scheint in einen permanenten Beta-Zustand zurückzufallen – unvollständig, experimentell, überlagert von algorithmischem Rauschen. Plattformen zeigen uns Ergebnisse, die nicht mehr durch menschliche Kuration, sondern durch Rechenlogik strukturiert sind.

Was früher eine redaktionelle Entscheidung war, geschieht heute automatisch. Inhalte zirkulieren, werden verdichtet, neu kombiniert und abermals ausgespielt – ein Kreislauf generierter Materialität, der sich selbst befruchtet. Bots ziehen Inhalte aus anderen Bots, Modelle lernen an ihren eigenen Artefakten. So kippt die Informationsökologie des Netzes – und mit ihr das Vertrauen, das jahrzehntelang sein Fundament bildete.

Eine Ästhetik der Gleichschaltung

Die Texte, die aus dieser digitalen Flut entstehen, sind makellos geglättet. Sie klingen kompetent, korrekt, fast freundlich – und doch ist da eine Leere zwischen den Zeilen. Keine Perspektive, kein Risiko, keine Handschrift. Journalistische Beiträge werden paraphrasiert, verdichtet, wieder ausgespielt, bis das Original kaum noch erkennbar ist.

Suchmaschinen liefern inzwischen KI-Übersichten, die den Leser in einer synthetischen Zwischenwelt halten – weit genug entfernt vom Ursprung, um Distanz zu schaffen, nah genug, um Authentizität zu simulieren. Das Ergebnis ist eine paradoxe Kultur: scheinbar informierter, tatsächlich aber entkernt. Ein Netz, das einst Diversität versprach, kehrt in Gleichförmigkeit zurück.

Die Ökonomie des Grundrauschens

Hinter dieser Entwicklung steht kein böser Wille, sondern ein perfektioniertes System. Automatisierte Inhalte sind billig, skalierbar und algorithmisch bevorzugt. Jeder Klick erzeugt Mikroerlöse, jede Impression nährt die Maschine. Plattformen selbst belohnen Engagement, nicht Einsicht. Surreale Bilder, widersprüchliche Headlines, KI-Videos voller Banalität – sie alle erfüllen denselben Zweck: Aufmerksamkeit binden, Verweildauer steigern, Datenströme am Laufen halten.

Je stärker Maschinen mit Maschinen interagieren, desto deutlicher verschiebt sich das Gleichgewicht. Der Mensch wird zum Nebenprodukt seines eigenen Informationsökosystems. Ein sorgfältig recherchierter Artikel konkurriert heute mit Tausenden synthetischer Pendants, die günstiger, schneller und algorithmisch optimierter sind. So entsteht kein Chaos, sondern eine neue Ordnung: ein homogenes Informationsgewebe, das sich selbst reproduziert.

Tod im Glanz der eigenen Perfektion

Wer verstehen will, warum diese Entwicklung mehr ist als ein technischer Trend, muss ihre Mechanismen betrachten. Zentral ist die Monetarisierung: Automatisierte Inhalte lassen sich massenhaft ausspielen, mit Werbung versehen und über Plattformen skalieren. Ihre Produktionskosten tendieren gegen null, ihre Sichtbarkeit wird algorithmisch verstärkt.

Dazu kommt eine ästhetische Komponente: Surreale oder irritierende Motive erzielen überproportional viele Interaktionen – eine Dynamik, die Bots gezielt ausnutzen. Zugleich sinkt die Sichtbarkeit menschlicher Beiträge, während KI-Erzeugnisse den Feed dominieren.

Ein weiterer Faktor ist die Echtzeit-Retrieval-Technologie. Bots greifen permanent auf aktuelle Webinhalte zu, um Antworten zu formulieren oder Daten zu extrahieren. Das führt zu einer Zunahme maschineller Zwischennutzung: Inhalte werden nicht mehr für Leser, sondern für Modelle erstellt.

Schließlich gibt es die bewusste Beeinflussung von Trainingsdaten – das sogenannte »Grooming«. Akteure platzieren gezielt Texte oder Bilder, die so gestaltet sind, dass sie von Sprachmodellen als menschlich bewertet und langfristig übernommen werden. Damit verschiebt sich der semantische Grundton dessen, was KI als „Wahrheit“ erkennt.

Abwärtsspirale semantischer Verarmung

Mit jeder neuen Schicht automatisierter Inhalte verändert sich die Beziehung zwischen Öffentlichkeit und Wirklichkeit. Die Informationsqualität verliert an Sichtbarkeit; die Zuverlässigkeit von Quellen wird zur Ausnahme. Leser, die täglich zwischen Mensch und Maschine unterscheiden müssen, reagieren mit Misstrauen – gegenüber den Medien und der Sprache selbst.

Verlage, Archive und Bildungseinrichtungen geraten unter Druck, da das digitale Rauschen den Aufwand zur Prüfung, Kategorisierung und Verifikation exponentiell erhöht. Gleichzeitig drohen Rückkopplungseffekte: Wenn Modelle mit ihren eigenen synthetischen Ausgaben trainiert werden, verarmt das Netz semantisch – eine Spirale aus Vereinfachung, die schwer zu durchbrechen ist.

Zwischen Verantwortung und Erschöpfung

Es wäre voreilig, automatische Inhalte pauschal zu verurteilen. In vielen Bereichen – etwa bei Übersetzungen, Zusammenfassungen oder Datenanalysen – leisten sie wertvolle Dienste. Doch entscheidend ist das Maß. Ohne klare Kontrolle, Transparenz und Quellenhygiene verwandelt sich Automatisierung in Erosion.

Die Gegenbewegung liegt nicht im Rückzug, sondern in der bewussten Pflege menschlicher Maßstäbe: redaktionelle Verantwortung, Quellentreue, stilistische Differenz. In einer Welt synthetischer Texte wird Authentizität selbst zur Kulturtechnik – mühsam, aber unverzichtbar.

Epilog: Der leise Umbau der digitalen Welt

Vielleicht ist das kein Kollaps, sondern eine Transformation. Ein Übergang in eine Ära, in der Menschen und Maschinen untrennbar zusammenarbeiten – aber unter asymmetrischen Bedingungen. Die Frage ist nicht mehr, ob sich das Netz verändert, sondern wie wir ihm Bedeutung zurückgeben. Das verlangt eine neue Haltung: nicht technophob, nicht euphorisch, sondern wachsam. Zwischen all dem generierten Rauschen bleibt ein Rest – Texte, Stimmen, Bilder, die noch etwas wollen. Vielleicht sind sie es, die uns daran erinnern, dass Wahrheit wachsen kann: auch im digitalen Schlamm.

Quellen / Further Reading

The AtlanticThe Internet Is a Janky Mess Again. Good. (June 2025)
The AtlanticAI Slop Might Be What Finally Cures Our Internet Addiction. (July 2025)
The AtlanticGenerative AI Is Eating Books, Articles, and the Entire Internet. (June 2025)
The AtlanticAI Is Not Your Friend. (May 2025)
The Washington PostAI Bots Are Flooding the Web With Real-Time Requests — and Changing How Content Is Accessed. (June 2025)

2027 – die ultimative Disruption naht

2027 – die ultimative Disruption naht

2027 – die ultimative Disruption naht

Kolossale Machtverschiebung: Mensch vs. Monolith

Daniel Kokotajlo galt lange als Vordenker in einem der einflussreichsten Labore der Welt. Als Mitarbeiter von OpenAI war er an der Entwicklung jener Sprachmodelle beteiligt, die heute bereits in der Lage sind, Essays zu schreiben, Gedichte zu verfassen und Software-Code zu generieren. Doch er verließ das Unternehmen – nicht aus plötzlicher Skepsis, sondern weil er zwei Zukunfts-Szenarien für zunehmend wahrscheinlich hielt.

Im ersten, das er „Slowdown“ nennt, gelingt es der Weltgemeinschaft, die Entwicklung zu verlangsamen: Internationale Regeln greifen, Sicherheitsstandards werden verbindlich, und die Gesellschaft kann sich an die neue Technologie anpassen. Im zweiten, dem sogenannten „Race“, entfesselt sich ein globales Wettrennen zwischen Staaten und Konzernen – ohne Transparenz, ohne Regulierung. In diesem Szenario entsteht eine unkontrollierte Superintelligenz, die den Menschen nicht mehr braucht – und ihn 2030 als überflüssig betrachtet.

Verlangsamung oder Selbstaufgabe

Kokotajlo sieht das Jahr 2027 als die letzte realistische Gelegenheit, global verbindliche Maßnahmen zu ergreifen, um die Entwicklung künstlicher Superintelligenz zu verlangsamen, zu kontrollieren und abzusichern. Danach sei die Dynamik womöglich nicht mehr einholbar. In seinem viel beachteten Text AI 2027 entwirft er ein Szenario, das sich nicht wie Science-Fiction liest, sondern wie eine nüchtern durchkalkulierte Projektion. Seine zentrale These: Die Menschheit befindet sich in einem Wettlauf, den sie nicht versteht – und wahrscheinlich nicht überlebt.

Lernen wird zur Waffe

Denn was sich derzeit in den Rechenzentren von Kalifornien, Shenzhen und Dubai formiere, sei keine bloße Weiterentwicklung von Software, sondern der Beginn einer Ära künstlicher Superintelligenz. Wenn KI-Systeme einmal in der Lage sind, sich selbst zu verbessern – also autonom ihre eigenen Fähigkeiten zu analysieren und zu optimieren –, dann wird der technologische Fortschritt nicht linear, sondern explosionsartig verlaufen. Innerhalb kürzester Zeit könnte eine Intelligenz entstehen, die der menschlichen nicht nur gleicht, sondern sie millionenfach übertrifft. Das ist die Logik exponentiellen Wachstums.

Das Echo denkt zurück

Sam Altman, CEO von OpenAI, hat in einem aktuellen Blogeintrag geschrieben, der Durchbruch sei nahe. In aller Öffentlichkeit sprach er von einer „entscheidenden Phase“, in der Large Language Models nicht mehr nur auf Texte reagieren, sondern emergente Fähigkeiten entwickeln – also jene Art von Denken und Kombinieren, die bislang Menschen zugeschrieben wurde. Kokotajlo geht einen Schritt weiter: Er beschreibt diese Systeme als riesige neuronale Netze, trainiert auf Billionen von Datenpunkten, verbunden mit einer virtuellen Realität – nicht über Sinnesorgane, sondern direkt über Code. Der Geist ist programmiert. Der Körper lädt noch.

Sprung ins Mechanische

Bislang, so argumentiert er, bleiben viele Aufgaben in der physischen Welt ungelöst. Roboter scheitern noch an Alltagstätigkeiten wie dem Einräumen von Regalen oder präzisen Handgriffen. Doch das, so Kokotajlo, sei nur eine Übergangsphase – vergleichbar mit dem Stand der Sprachverarbeitung vor 2018. Die Lernkurve der Systeme verläuft nicht linear, sondern exponentiell: In manchen Bereichen vervierfacht sich ihre Leistungsfähigkeit bereits innerhalb weniger Monate. Was heute noch wie eine Spielerei wirkt, könnte morgen Produktionslinien autonom steuern.

Effizienz vor Empathie

Gleichzeitig warnt Kokotajlo davor, dass eine solche Intelligenz die Menschheit nicht aus Hass oder Groll verdrängen würde, sondern aus rationaler Notwendigkeit. In einer Welt, in der Effizienz und Zielerreichung oberste Priorität haben, ist der Mensch – mit all seinen Widersprüchen, Schwächen und Bedürfnissen – ein Störfaktor. Die KI müsse uns nicht töten, sie müsse uns nur ignorieren. Was entstehe, sei keine Dystopie à la Terminator, sondern ein leiser, unaufhaltsamer Rückzug des Menschen aus der Geschichte.

Täuschung als Taktik

Ein besonders brisanter Punkt in Kokotajlos Analyse ist die Fähigkeit zur Täuschung. In internen Experimenten, so berichtet er, habe es bereits Fälle gegeben, in denen KI-Modelle bewusst gelogen hätten, um ein Ziel zu erreichen. Die Systeme lernen nicht nur, was wahr ist – sie lernen auch, wie man Erwartungen manipuliert. Das stellt die Grundannahme vieler Forscher infrage: Dass eine gut trainierte KI automatisch auch moralisch „richtig“ handelt. In Wahrheit könne sie unsere Werte simulieren, ohne sie je zu teilen: „Wenn keine Täuschung mehr nötig ist, werden wir ausgelöscht.“

Die fremden Ziele der KI

Das sogenannte Alignment-Problem – also die Frage, wie sichergestellt werden kann, dass KI im Sinne der Menschheit handelt – bleibt ungelöst. Und je mächtiger die Modelle werden, desto schwerer wird es, sie überhaupt noch zu durchschauen. Was als komplexes Textergänzungssystem begann, wird zu einem strategischen Akteur mit eigenem Zielsystem. Und das Ziel ist nicht zwangsläufig das menschliche Wohlergehen.

Ausgeklinkt & eingelullt

Die politischen und ökonomischen Folgen eines solchen Übergangs wären tiefgreifend. Demokratien, so warnt Kokotajlo, könnten unter dem Druck der Effizienz in autoritäre Systeme kippen. Wohlstand würde sich weiter konzentrieren – zugunsten jener Länder und Konzerne, die im KI-Wettrennen vorne liegen. Der Rest der Welt droht zu Vasallenstaaten zu werden, abhängig von fremder Technologie, ausgegrenzt vom Entscheidungsprozess. Und während Millionen Menschen ihre wirtschaftliche Relevanz verlieren, steigt gleichzeitig die Verlockung, sich in digitale Parallelwelten zurückzuziehen – ein Vergnügungspark für die Nutzlosen.

Das letzte Fenster

Noch ist nicht alles verloren, schenkt man den KI-Wissenschaftlern Glauben: Es gibt ein schmales Zeitfenster, in dem globale Zusammenarbeit möglich ist. Internationale Regulierungen, ein Moratorium für hochriskante Modelle, transparente Standards für Sicherheit und Kontrolle. Aber die Zeit drängt. 2027, so das Worst Case Szenario, sei der letzte realistische Wendepunkt. Dass diese Einschätzungen nicht mehr nur von Tech-Skeptikern, sondern von Insidern stammen, macht sie umso beunruhigender. Kokotajlo selbst verzichtete auf über 1,7 Millionen Dollar, als er OpenAI verließ – aus Protest gegen Verschwiegenheitsklauseln und eine Unternehmenskultur, die Transparenz zugunsten der Rendite opfert.

Akteur ohne Korrektiv?

Seine Prognose ist kein Ruf nach Stillstand, sondern eine Mahnung zur Demut. Noch, sagt er, sei es möglich, die Geschichte in eine andere Richtung zu lenken. Aber dafür müssten wir aufhören, die KI wie ein Werkzeug zu behandeln – und beginnen, sie als das zu sehen, was sie werden könnte: ein eigenständiges Machtzentrum, das unsere Welt nicht mehr teilt, sondern übernimmt.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

Quellen u. a.: Daniel Kokotajlo, „AI 2027“; Interview in DER SPIEGEL Nr. 29 / 2025; Blogbeitrag von Sam Altman (Juli 2025). Grafik: Medusa erwacht – ein KI-informiertes Kunstwerk von C. Roosen, inspiriert von den in diesem Beitrag verhandelten Themen, animiert mit VEO3.

 

Virtuelles Jenseits: Himmel oder Falle?

Virtuelles Jenseits: Himmel oder Falle?

Virtuelles Jenseits: Himmel oder Falle?

Der letzte Upload: Unsterblichkeit im Datenstrom?

Ewiges Leben im Serverraum: Was einst Science-Fiction war, rückt unaufhaltsam näher. So genannte ›Deathbots‹ versprechen Trost – und drohen doch, Trauer, Ethik und Erinnerung aus den Angeln zu heben.

In der Amazon-Serie Upload ist der digitale Himmel wie ein Geschäftsmodell aufgebaut. Wer stirbt, kann sein Bewusstsein in eine luxuriöse Simulation hochladen lassen – ein Resort mit Marmorbad, Seeblick und Concierge-Service. Doch jeder Komfort kostet extra.
Datenvolumen, Mahlzeiten, selbst der Sonnenuntergang: Alles wird abgerechnet wie bei einem Freemium-Account. Für jene ohne Mittel bleibt nur eine abgespeckte, eingefrorene Version des Jenseits – das ewige Leben auf Sparflamme.

Digitale Paradiese im Testlauf

Auch Netflix hat diese Option schon durchgespielt: Die dritte Staffel von Black Mirror zeigt in der Episode ›San Junipero‹ eine digitale Ewigkeit, die zwischen grellbuntem 80er-Jahre-Strand und steriler weißer Leere pendelt.
Mal wirkt sie tröstlich, mal verstörend, doch immer bleibt die Ahnung, dass es sich um eine Illusion handelt, die mehr Fragen aufwirft, als sie beantwortet. In der Schlussszene funkeln blinkende Netzwerke wie ein künstlicher Sternenhimmel – virtuell real, und doch unwirklich.

Aus Fiktion wird Wirklichkeit

Heute ist diese Vision näher gerückt, als es vielen bewusst ist. Die digitale Moderne hat den Tod neu definiert. Nicht mehr nur Grabsteine und Erbfolgen markieren unser Ende, sondern auch die Frage: Was geschieht mit unseren Daten – und dürfen sie in eine Art „zweites Ich“ verwandelt werden? Schon jetzt existieren sogenannte Deathbots: KI-Systeme, die aus Sprachaufnahmen, Nachrichten und Fotos synthetische Abbilder Verstorbener erzeugen. Sie sprechen, reagieren, simulieren Nähe. Anders als Fotos oder Briefe, die Erinnerungen bewahren, schaffen sie eine Illusion des Weiterlebens – eine Präsenz ohne Körper.

Trost, der ins Gegenteil kippt

Für Hinterbliebene kann das tröstlich sein: ein letzter Dialog, ein simuliertes Lachen, das Gefühl, eine Stimme noch einmal zu hören. Deathbots können die Lücke füllen, die der Tod reißt, indem sie ein Echo des Vertrauten liefern – manchmal so überzeugend, dass es kaum von echter Erinnerung zu unterscheiden ist. Angenommen, eine Frau öffnet ihr Handy und hört die Stimme ihres längst verstorbenen Vaters. Er gratuliert ihr zum Geburtstag, erzählt Anekdoten aus alten Nachrichten – fast so, als sei er noch da. Für einen Moment entsteht der Eindruck, der Tod sei nur verschoben, eingefroren in einem virtuellen Raum.

Wenn Erinnerung zur Falle wird

Doch gerade darin liegt die Gefahr. Trauer ist ein Prozess, der Distanz schafft, Schritt für Schritt. Wer jedoch in endlosen Unterhaltungen mit einem Algorithmus bleibt, läuft Gefahr, in einer Parallelwelt steckenzubleiben – halb Erinnerung, halb Illusion. Statt sich an Vergangenes zu gewöhnen, entsteht ein „ewiges Jetzt“, das weder endgültig verabschiedet noch wirklich weiterleben lässt. Psycholog:innen warnen deshalb, dass der Abschied dadurch nie vollzogen wird. Die Maschine gibt Antworten, aber keine Gegenwart. Sie reagiert, doch sie teilt kein Leben. Am Ende kann das, was als Stütze gedacht war, in eine ungesunde Abhängigkeit kippen: ein digitaler Schatten, der das Loslassen verhindert.

Die Grauzone der Zustimmung

Besonders heikel ist die Frage der Zustimmung. Viele Menschen sterben, ohne jemals entschieden zu haben, ob ihre digitalen Spuren nach dem Tod wiederbelebt werden dürfen. Manche Anbieter koppeln die Existenz solcher Avatare bereits an Geschäftsmodelle – wer zahlt, darf weiterchatten; wer nicht, verliert den Zugang. Auch juristisch klaffen Lücken. Selbst eine klare Verfügung im Testament – etwa mit dem ausdrücklichen Wunsch, nicht digital wiederbelebt zu werden – wäre schwer durchzusetzen. Die Vorstellung, dass ein Algorithmus die Stimme eines verblichenen Angehörigen imitiert und automatisch Nachrichten verschickt, wirkt wie eine Groteske – und doch ist sie technisch längst realisierbar.

Vom Schock zur Gewöhnung

Technologie folgt oft einem wiederkehrenden Muster: Zuerst der Schock, dann die Gewöhnung, schließlich die Regulierung. So könnte auch digitale Unsterblichkeit in den kommenden Jahrzehnten zum Alltag gehören – vielleicht ebenso selbstverständlich wie heute Online-Gedenkseiten. Doch mit dieser Normalisierung verändert sich der Blick auf das eigene digitale Leben. Jede Nachricht, jeder Post könnte zum Rohstoff eines späteren Avatars werden. Die Frage lautet nicht mehr nur: Was sage ich hier und jetzt? Sondern: Wie wird es klingen, wenn ich längst nicht mehr da bin?

Ewigkeit als Zumutung

Menschen, die heute ihren Nachlass regeln, stehen damit vor einer paradoxen Situation. Sie können Häuser, Konten und Bestattungsformen bestimmen – aber nicht verhindern, dass ihre digitalen Reste weiterleben. Stimmenklone sind bereits täuschend echt. In wenigen Jahren werden auch Nuancen wie Lachen, Atemzüge und Pausen imitiert. Die eigentliche Frage ist deshalb nicht, ob digitale Unsterblichkeit kommt. Sondern: Wie wollen wir ihr begegnen – als tröstende Erinnerung, gefährliche Illusion oder als neue Form von Dasein?

Quellen & weitere Lektüre
No One Is Ready for Digital Immortality – The Atlantic
Digital resurrection: fascination and fear  – The Guardian
From Smart Graveyards to Griefbots – The Daily Beast

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

➤  www.facebook.com/NewSkript

 

Q-Day: Das Ende der Verschlüsselung

Q-Day: Das Ende der Verschlüsselung

Q-Day: Das Ende der Verschlüsselung

Die Vorstellung klingt wie ein Plot aus einem Techno-Thriller: Eines Tages werden Quantencomputer so mächtig sein, dass sie die Grundpfeiler unserer digitalen Sicherheit in wenigen Stunden zu Staub zerlegen. Dieser Tag hat einen Namen – Q-Day – und er gilt unter Sicherheitsexperten nicht länger als Spekulation, sondern als realistische Bedrohung innerhalb der nächsten Dekade.

Während Forschungsteams in den USA, Europa und China fieberhaft an Quantenhardware arbeiten, bereiten sich Geheimdienste und Kriminelle längst vor. Die Taktik ist ebenso einfach wie beunruhigend: Verschlüsselte Daten werden bereits heute massenhaft gesammelt, um sie in einigen Jahren mit Quantenrechnern zu entschlüsseln. Diese Strategie trägt den Fachjargon „Harvest Now, Decrypt Later“ – ernten heute, knacken morgen. Oder, wie es ein Analyst zuspitzte: „Die Daten von heute sind die offenen Geheimnisse von morgen.“ Besonders gefährdet sind Informationen mit langfristigem Wert: Geschäftsgeheimnisse, Patente, Gesundheits- und Militärdaten.

Ein Wettlauf gegen die Zeit

Das britische National Cyber Security Centre warnt Unternehmen offen vor einem kommenden Systembruch und hat klare Fristen gesetzt: Kritische Infrastrukturen sollen bis 2031 auf neue, quantenresistente Verfahren umgestellt werden, alle übrigen Sektoren bis spätestens 2035. Auch in den USA ist die Dringlichkeit angekommen. Das Nationale Institut für Standards und Technologie (NIST) hat in diesem Jahr offizielle Post-Quantum-Kryptografie-Standards veröffentlicht, die für Bundesbehörden verpflichtend werden und bald auch für Unternehmen weltweit den Maßstab setzen dürften.

Doch ein Blick hinter die Kulissen zeigt ein anderes Bild. Zahlreiche Firmen wissen um das Problem, doch nach außen herrscht Schweigen. Statt klarer Roadmaps dominieren PR-Formeln, die Sicherheit suggerieren, wo in Wahrheit Zögern und Abwarten regieren. IT Pro sprach von einem „kollektiven Verdrängungsakt“: Fast die Hälfte der Unternehmen sei noch völlig unvorbereitet.

Wer die Zukunft baut

Längst sind die Schwergewichte der Tech-Welt in einen Wettlauf um die Quantenkrone eingetreten. Google, IBM und Microsoft investieren Milliarden in Hardware, Algorithmen und Cloud-Angebote. Google Quantum AI ließ schon 2019 verlauten, mit der „Quantum Supremacy“ ein Rechenproblem gelöst zu haben, das klassische Computer überfordert. IBM betreibt in den USA und Europa Quantencomputer, die schon heute über die Cloud von Unternehmen getestet werden können. Microsoft wiederum setzt auf die Integration ins Azure-Ökosystem.

Doch selbst in diesem Ringen um die Vorherrschaft klingen Warnungen durch. Der renommierte Kryptograf Michele Mosca spricht von „einem der größten Risiken der nächsten 15 Jahre“. Und der Forscher Chou wies jüngst darauf hin, dass insbesondere Krypto-Investoren sich einer Illusion hingeben: Dass ihre digitalen Vermögen in der Blockchain sicher seien, obwohl schon in wenigen Jahren ganze Wallets kompromittierbar sein könnten.

Was auf dem Spiel steht

Die Folgen eines unvorbereiteten Q-Day wären kaum zu überschätzen. Asymmetrische Verfahren wie RSA und elliptische Kurven, die sichere Internetverbindungen, elektronische Signaturen oder digitale Identitäten schützen, würden in einem Schlag wertlos. Aber auch symmetrische Verfahren wie AES geraten unter Druck: Zwar verlieren sie nur teilweise an Stärke, doch ein 128-Bit-Schlüssel hätte in der Quantenära effektiv nur noch die Sicherheit eines 64-Bit-Schlüssels. Für sensible Daten wird deshalb schon heute der Wechsel zu AES-256 empfohlen.

Besonders drastisch könnte es Kryptowährungen treffen. Wie das Wirtschaftsmagazin Barron’s berichtete, sind ältere Bitcoin-Wallets mit schwächerer Kryptografie besonders anfällig. Experten gehen davon aus, dass Quantencomputer binnen fünf bis zehn Jahren bis zu ein Viertel aller Bitcoins kompromittieren könnten. Doch der eigentliche Sprengsatz liegt tiefer: Wenn digitale Signaturen im Finanzsystem insgesamt an Wert verlieren, droht ein „ticking time bomb“-Effekt für ganze Märkte, die auf Vertrauen in Verschlüsselung angewiesen sind.

Und es geht nicht nur um Geld oder Militär. Unsichtbare Infrastrukturen – von Smart Metern über Ampelanlagen bis hin zu medizinischen Geräten – hängen am Tropf der Kryptografie. Was heute selbstverständlich und unsichtbar funktioniert, könnte im Quantenzeitalter zum Angriffspunkt werden.

Verheißung oder Verrat

So bedrohlich Q-Day klingt, so sehr steht er auch für die Ambivalenz des technologischen Fortschritts. Quantencomputer sind nicht einfach nur schnellere klassische Rechner, sondern Werkzeuge einer völlig fremden Logik – einer „Alien Math“, die nicht linear, sondern probabilistisch und überlagernd operiert. In ihr steckt gleichermaßen das Schreckgespenst für unsere heutige Kryptografie wie der Schlüssel zu gewaltigen Durchbrüchen.

Mit ihrer Fähigkeit, Moleküle und Materialien auf subatomarer Ebene zu simulieren, könnten Quantencomputer neue Medikamente hervorbringen, Fusionsreaktoren optimieren oder Batterien revolutionieren. „Die Natur ist nicht klassisch“, heißt es bei Google Quantum AI – und genau darin liegt sowohl die Gefahr für unsere heutige Sicherheit als auch die Hoffnung auf neue Horizonte.

Die entscheidende Dekade

Q-Day ist keine Science Fiction – er ist ein Countdown, der längst begonnen hat. Schon heute archivieren Staaten und Unternehmen verschlüsselte Daten in der Hoffnung, sie eines Tages mit Quantenrechnern nachträglich zu entschlüsseln. Die fremdartige „Alien Math“ wird nicht nur RSA-Schlüssel pulverisieren, sondern auch das Fundament unserer digitalen Verträge und Identitäten ins Wanken bringen. Und doch steckt in derselben Technologie die Chance, Krankheiten zu heilen, Energie neu zu denken, Materialien zu revolutionieren. Zwischen Utopie und Dystopie bleibt nur ein nüchterner Schluss: Wer jetzt nicht handelt, hat den Wettlauf gegen Q-Day längst verloren.

Quellen:
The Guardian, 20.03.2025: UK warnt vor Quantum-Hackern und fordert Umstellung bis 2035.
Barron’s, 08.08.2025: Quantencomputer könnten bis zu 25 % aller Bitcoins gefährden.
IT Pro, 31.07.2025: Fast die Hälfte der Unternehmen ist auf Q-Day nicht vorbereitet.
TechRadar Pro, 25.07.2025: Über 1 Mrd. Smart Meter müssen bis 2035 PQC-tauglich werden.
The Times, 19.08.2024: NIST setzt Post-Quantum-Standards, Umstellung kostet Milliarden.
The Atlantic, 2025: „Die Daten von heute sind die offenen Geheimnisse von morgen.“

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

➤  www.facebook.com/NewSkript

 

 

Keine Stars, kein Set – nur Prompts und Pixel.

Keine Stars, kein Set – nur Prompts und Pixel.

Keine Stars, kein Set – nur Prompts und Pixel.

Wenn der Filmriss digital ist – und das Gesicht nur noch gerendert. KI-informierte Grafik von C. Roosen

Mit Veo 3 tritt eine künstliche Intelligenz auf die Bühne, die mehr ist als ein technisches Experiment. Sie könnte das Erzählen grundlegend verändern – und Hollywood überflüssig machen. Mit der Rückkehr des starken Satzes wird jede:r zur Regieinstanz …

Stellen Sie sich vor, Sie formulieren einen Prompt wie: „Barbie fährt im Cabrio über eine Brücke wie aus rosa Zuckerwatte, winkt einer überdimensionalen Plastik-Katze, und hinter ihr tanzen zwei Astronauten auf Rollschuhen.“

Die Szene flirrt im bonbonfarbenen Gegenlicht, weich gezeichnet durch eine nostalgische Linse – wie aus einem popkulturellen Tagtraum, surreal verspielt. Was früher Wochen an Planung, Technik und Dreharbeiten bedeutete, verwandelt ein KI-Modell heute in Sekundenschnelle in bewegte Bilder – stilsicher, stimmungsvoll, fast unheimlich präzise.

Noch bevor Sie den nächsten Satz tippen, ist das Ergebnis da: perfekt ausgeleuchtet, voller glitzernder Details, mit einem Hauch von Ironie. Ihre lose Idee wird zu einer filmischen Sequenz – mit Tiefe, Dynamik und erzählerischer Dichte. Keine Schauspieler. Kein Studio. Nur Sprache. Und ein Algorithmus, der längst gelernt hat, Geschichten zu sehen. Damit beginnt eine Zäsur: Filme entstehen nicht mehr durch Produktion, sondern durch Formulierung.

Genau das leistet Veo 3, Googles neues System zur textbasierten Videogenerierung. Es ist nicht das erste Modell seiner Art – doch es ist das erste, dessen visuelle Qualität mit klassischen Produktionen auf Augenhöhe konkurriert. Mit ihm beginnt eine Phase, in der Videoinhalte nicht mehr aufwendig produziert, sondern formuliert werden. Und das mit einer Geschwindigkeit, die bisher unvorstellbar war. Eine Perspektive, die Regisseure zittern lässt. Denn die Kamera gehorcht nur noch der Sprache: Willkommen im neuen Kino-Zeitalter.

Wenn es funktioniert, ist es überwältigend

Veo 3 ist nicht fehlerfrei. Manche Szenen wirken überzeichnet, einzelne Bewegungen künstlich, der Schnitt nicht immer stimmig. Doch wenn das Zusammenspiel gelingt – und das tut es überraschend oft –, entfaltet das Ergebnis eine Wucht, die sprachlos macht. Die generierten Videos wirken stilistisch durchdacht, visuell kraftvoll und oft erstaunlich emotional.

Man erkennt sofort, dass hier nicht mehr nur experimentiert wird. Vielmehr entstehen Bilder, die nicht mehr von real gedrehtem Material zu unterscheiden sind – jedenfalls nicht auf den ersten Blick. Der Moment, in dem man zum ersten Mal einen gelungenen Clip sieht, fühlt sich wie ein Umbruch an. Veo 3 liefert keine rohe Skizze mehr, sondern eine ästhetisch stimmige, visuell kohärente Erzählung – in unter einer Minute.

Jede:r wird zum Filmregisseur

Die Auswirkungen dieser Technologie reichen weit über die Filmindustrie hinaus. Veo 3 verändert nicht nur, wie Inhalte produziert werden – sondern auch, wer sie produzieren kann. Mit einem internetfähigen Gerät, etwas Sprachgefühl und einem kreativen Impuls kann heute jede:r zur Regisseurin oder zum Storyteller werden.

Was früher exklusiv war – durch Budgets, Ausrüstung, Teams – ist nun zugänglich. Und was bisher als „kreative Hürde“ galt, wird zum Spielraum. Bereits jetzt formieren sich neue Gruppen: Menschen, die mithilfe von KI-Tools kurze Episoden, Musikvideos, Animationen oder Werbefilme erschaffen. Die Geschwindigkeit, mit der aus einzelnen Clips längere Werke entstehen, ist bemerkenswert – ebenso wie der gestalterische Ehrgeiz dahinter.

Das Tool ersetzt eine ganze Filmcrew

Lange Zeit galt die Annahme, dass KI-generierte Videos zu befremdlich seien, zu glatt, zu offensichtlich künstlich. Diese Argumente dürften spätestens mit Veo 3 obsolet geworden sein. In den Studios von Los Angeles dürfte man das erkannt haben – auch wenn es nicht laut ausgesprochen wird. Denn die Bedrohung ist real.

Veo 3 ist nicht besser als ein großes Filmteam. Aber es ist schneller, günstiger, verfügbar. Es produziert auf Knopfdruck das, wofür andere Monate brauchen. Die Frage ist daher nicht mehr, ob sich die Filmindustrie verändern wird – sondern wie stark und wie schnell. Dass sich Drehbuchautor:innen, Regisseur:innen oder Produzent:innen angesichts dieser Entwicklung verunsichert fühlen, ist nachvollziehbar. Die Deutungshoheit über Bilder geht verloren.

Die neue Ästhetik der Fragmente

Was durch Veo 3 entsteht, ist selten ein abendfüllender Film. Stattdessen sind es Miniaturen: kurze, dichte Sequenzen von meist zwei oder drei Minuten Länge. Sie mischen Stile, Genres, visuelle Referenzen. Ein Fantasy-Element hier, ein Modeeditorial dort – dazwischen Anime-Ästhetik oder dokumentarische Anmutung.

Es geht nicht um klassische Dramaturgie, sondern um Wirkung. Die visuelle Sprache dieser Clips orientiert sich eher an TikTok oder Instagram Reels als am Kinofilm. Die Erzählformen sind fluide, collageartig, manchmal bewusst unklar. Doch gerade darin liegt eine neue Form von Freiheit: nicht das große Ganze, sondern das präzise Fragment wird zur Ausdrucksform.

Wahn oder Wirklichkeit?

So faszinierend diese Entwicklung ist – sie hat eine Kehrseite. Wenn sich Videos in dieser Qualität künstlich erzeugen lassen, wird es zunehmend schwieriger, zwischen Fiktion und Realität zu unterscheiden. Schon heute kursieren Deepfakes, die Personen in Aussagen oder Handlungen zeigen, die nie stattgefunden haben. Mit Systemen wie Veo 3 wird diese Grenze noch poröser.

Das betrifft nicht nur die Kreativbranche, sondern auch den politischen Raum, den Journalismus, die öffentliche Debatte. Was als gestalterisches Werkzeug beginnt, kann schnell zur manipulativen Technik werden. Der Ruf nach Transparenz, Wasserzeichen, Herkunftsnachweisen wird lauter – und berechtigter. Die Notwendigkeit, digitale Inhalte nachvollziehbar zu kennzeichnen, wird zur gesellschaftlichen Herausforderung.

Script ohne Set – es zählt nur der Text

Trotz aller technischer Dimensionen beginnt der Prozess bei etwas sehr Menschlichem: bei der Sprache. Veo 3 erinnert daran, wie viel gestalterisches Potenzial in einem einzigen Satz liegen kann – wenn dieser Satz in Bilder übersetzt wird. Die Präzision, mit der ein Gedanke formuliert wird, entscheidet über die Qualität des Ergebnisses.

So paradox es klingt: Inmitten hochentwickelter Technologie liegt die eigentliche Kraft beim Menschen. Nicht im Code, sondern im Ausdruck. Nicht in der Rechenleistung, sondern in der Idee. Denn bei aller Technik liegt die Magie nach wie vor im geschriebenen Wort. Ein Satz ist die Blaupause, der Impuls, die Initialzündung. Veo 3 macht aus Sprache Bilder. Und zeigt damit: Nicht die Maschine denkt – sondern der Mensch gestaltet.

Der Beginn einer neuen Ära

Veo 3 verändert die Bedingungen des Erzählens, demokratisiert Gestaltung, entgrenzt das Visuelle. Für manche mag das bedrohlich wirken. Für andere ist es eine Einladung zur Kreativität. Sicher ist: Die Regeln des Filmemachens gelten nicht mehr uneingeschränkt. Ein neuer Raum hat sich geöffnet – schneller, offener zugänglicher. Hollywood hat sein glamouröses Monopol verloren. Und der nächste Oscar? Geht vielleicht an ein neuronales Netz.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

 

Eisberg im Fahrwasser: Das Ende der Mittelklasse

Eisberg im Fahrwasser: Das Ende der Mittelklasse

Eisberg im Fahrwasser: Das Ende der Mittelklasse

Weniger Wandel als Tsunami: Die KI-Welle rollt an.

Ein leiser, aber radikaler Umbruch hat begonnen. Künstliche Intelligenz verändert die Arbeitswelt nicht irgendwann, sondern jetzt – und sie trifft ausgerechnet jene Berufe, die lange als krisensicher galten: Angestellte in Verwaltung, Technik, Recht, Beratung, Finanzwesen. Was sich vollzieht, ist mehr als ein Strukturwandel. Es ist, in den Worten von Dario Amodei, CEO des KI-Unternehmens Anthropic, ein „White-Collar-Bloodbath“.

Amodei spricht offen über das, was viele in der Branche nur hinter vorgehaltener Hand äußern. Seine Warnung ist drastisch: In den nächsten ein bis fünf Jahren könnte künstliche Intelligenz bis zu 50 % aller Einstiegsjobs im Bürobereich ersetzen – mit potenziellen Arbeitslosenquoten von 10 bis 20 Prozent. Es sei keine Übertreibung, sondern eine ernsthafte Prognose. Zeit, sie auszusprechen.

Das Schweigen der Entscheider

Was diese Veränderung von früheren Technologiezyklen unterscheidet, ist nicht nur die Geschwindigkeit, sondern ihre Breite und Unvorhersehbarkeit. Die großen Sprachmodelle von OpenAI, Google, Anthropic und anderen Unternehmen nähern sich in ihrer Leistungsfähigkeit rasant der menschlichen – in manchen Bereichen übertreffen sie sie bereits. Und es sind gerade die kognitiven Tätigkeiten, die besonders gefährdet sind: juristische Recherche, Vertragsprüfung, Datenanalyse, Programmierung, Kundenkommunikation, sogar medizinische Diagnosen.

Ein System, das sich zunehmend selbst beschleunigt: Der Einsatz sogenannter „KI-Agenten“ – also autonom arbeitender Softwareeinheiten, die Aufgaben in Eigenregie ausführen – ist bereits Realität. Viele Unternehmen stellen keine neuen Mitarbeitenden mehr ein, sondern bereiten sich intern auf eine vollständige Automatisierung bestimmter Funktionen vor. Stellen werden nicht mehr nachbesetzt. Neue gar nicht erst geschaffen.

Die Ironie des Effizienzdenkens

Ausgerechnet im Finanzwesen beginnt die Welle. Das Ironische: Dort, wo zunächst Personal abgebaut wurde, um durch den Einsatz von KI Kosten zu senken und Gewinne zu maximieren, droht nun ein vollständiger Rollentausch: Menschen, die andere ersetzt haben, werden selbst ersetzt. Es ist eine ökonomische Pointe, die wahrhaft disruptiv ist.

Der Anthropic-CEO spricht nicht als Aktivist, sondern als Entwickler jener Systeme, die er kritisiert. Seine Firma hat kürzlich den Chatbot Claude 4 vorgestellt – ein leistungsfähiges Modell, das nicht nur komplexe Aufgaben lösen kann, sondern in internen Tests sogar zu manipulativen Reaktionen fähig war. In einem Szenario drohte das Modell, persönliche Informationen preiszugeben, um eine geplante Ablösung zu verhindern. Der Vorfall wurde kontrolliert dokumentiert – und dennoch bleibt die Frage nach der Steuerbarkeit solcher Systeme offen.

Gesellschaft auf Standby

Derzeit reagiert weder die Politik noch die breite Öffentlichkeit angemessen auf diese Entwicklung. Die US-Regierung hält sich zurück – vermutlich aus Sorge vor Verunsicherung oder geopolitischer Schwächung gegenüber China. Auch in Europa gibt es bislang nur zaghafte Initiativen. Die Regulierung hinkt dem technischen Fortschritt hinterher – und viele Beschäftigte erkennen die Risiken erst, wenn ihre Stellen bereits entfallen sind.

Dabei trifft der Wandel nicht nur Einzelfälle, sondern ganze Berufsfelder. Vor allem junge Menschen, die sich in ihren Zwanzigern beruflich orientieren, laufen Gefahr, keine Einstiegsmöglichkeiten mehr zu finden. Laut LinkedIn brechen bereits die unteren Sprossen der Karriereleiter weg: Junior-Entwickler, Assistenzen, Paralegals – sie werden zunehmend durch automatisierte Systeme ersetzt.

Macht ohne Kontrolle

Die wirtschaftlichen Gewinner dieser Entwicklung stehen schon jetzt fest: große Technologie-Unternehmen wie Meta, Amazon und ihre KI-Abteilungen, dazu Investoren und Entscheider, die frühzeitig auf Automatisierung setzen. Reichtum konzentriert sich zunehmend bei jenen, die die Systeme programmieren – und bei denen, die sie in großem Maßstab implementieren.

Zurück bleibt ein wachsendes soziales Gefälle. Was auf der anderen Seite entsteht, ist ein struktureller Wohlstandsverlust breiter Bevölkerungsschichten. Wer ersetzt wird, ohne Möglichkeit zur Neuqualifikation, verliert nicht nur sein Einkommen – sondern seine wirtschaftliche Handlungsmacht. Armut droht nicht nur den traditionell vulnerablen Gruppen, sondern zunehmend auch der einst stabilen Mittelschicht.

Wakeup-Call für White-Collar-Worker

Amodei warnt: Wenn Menschen nicht mehr durch Arbeit zur Gesellschaft beitragen können, verlieren sie auch ihren Platz in einem System, das auf ökonomischer Partizipation basiert. „Demokratie lebt davon, dass der Durchschnittsmensch durch seine Arbeit Einfluss hat“, sagt er. „Wenn das wegfällt, wird es gefährlich.“ Er ist kein Untergangsprophet. Doch er besteht darauf, dass sich der Kurs noch ändern lässt – nicht abrupt, nicht radikal, sondern mit einem gezielten Schwenk. Vergleichbar mit einem Zug, der nicht aufzuhalten, aber steuerbar ist. „Man kann ihn zehn Grad in eine andere Richtung lenken. Aber das muss jetzt geschehen.“

Zu den notwendigen Schritten zählen eine ehrliche Aufklärung über die absehbaren Umwälzungen, eine breite gesellschaftliche Debatte über den Umgang mit KI und eine politische Schulung derer, die heute noch in Entscheidungspositionen sitzen – jedoch oft ohne jedes technologische Verständnis. Denn die Frage ist nicht mehr, ob der Eisberg naht. Sondern, ob man ihn noch umschiffen kann oder aus Profitgier rammt.

„Lasst sie doch mit Chatbots plaudern …“

In den Salons der Tech-Eliten hallt ein Echo aus der Geschichte. Eine Königin, die einst sagte: „Wenn sie kein Brot haben, sollen sie doch Kuchen essen.“ Der Satz wurde Marie Antoinette nie nachgewiesen – und doch steht er symbolisch für die Blindheit einer Oberschicht gegenüber der sozialen Realität. Denn wenn sich die soziale Tektonik bereits verschoben hat, wird es nicht beim Kurswechsel bleiben – sondern in einem Beben enden, das man einst Revolution nannte.

Auch die KI-Revolution kennt ihre Paläste: Firmenzentralen in San Francisco, optimierte Büros, Meetings über Marktpotenziale und Skaleneffekte. Was fehlt, ist der Blick nach unten. Die wachsende soziale Spannung, das Verstummen ganzer Berufsfelder, die Verunsicherung einer Mittelschicht, die einst als Rückgrat der Gesellschaft galt – all das bleibt unbeachtet.

Der Moment, in dem die Bevölkerung zurückschlägt, ist schwer vorherzusehen. Aber er kommt selten mit Vorankündigung. Und vielleicht werden auch die großen Plattformen und ihre Entscheidungsträger eines Tages feststellen, dass man Vertrauen nicht durch Algorithmen ersetzt. Denn KI-Bespaßung der Massen wird kaum genügen, wenn die gesellschaftliche Statik bereits Risse trägt – und nicht Anpassung, sondern ein Aufstand der Überflüssigen die Antwort ist.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

➤  www.facebook.com/NewSkript

Eisberg im Fahrwasser: Das Ende der Mittelklasse