Keine Stars, kein Set – nur Prompts und Pixel.

Keine Stars, kein Set – nur Prompts und Pixel.

Keine Stars, kein Set – nur Prompts und Pixel.

Wenn der Filmriss digital ist – und das Gesicht nur noch gerendert. KI-informierte Grafik von C. Roosen

Mit Veo 3 tritt eine künstliche Intelligenz auf die Bühne, die mehr ist als ein technisches Experiment. Sie könnte das Erzählen grundlegend verändern – und Hollywood überflüssig machen. Mit der Rückkehr des starken Satzes wird jede:r zur Regieinstanz …

Stellen Sie sich vor, Sie formulieren einen Prompt wie: „Barbie fährt im Cabrio über eine Brücke wie aus rosa Zuckerwatte, winkt einer überdimensionalen Plastik-Katze, und hinter ihr tanzen zwei Astronauten auf Rollschuhen.“

Die Szene flirrt im bonbonfarbenen Gegenlicht, weich gezeichnet durch eine nostalgische Linse – wie aus einem popkulturellen Tagtraum, surreal verspielt. Was früher Wochen an Planung, Technik und Dreharbeiten bedeutete, verwandelt ein KI-Modell heute in Sekundenschnelle in bewegte Bilder – stilsicher, stimmungsvoll, fast unheimlich präzise.

Noch bevor Sie den nächsten Satz tippen, ist das Ergebnis da: perfekt ausgeleuchtet, voller glitzernder Details, mit einem Hauch von Ironie. Ihre lose Idee wird zu einer filmischen Sequenz – mit Tiefe, Dynamik und erzählerischer Dichte. Keine Schauspieler. Kein Studio. Nur Sprache. Und ein Algorithmus, der längst gelernt hat, Geschichten zu sehen. Damit beginnt eine Zäsur: Filme entstehen nicht mehr durch Produktion, sondern durch Formulierung.

Genau das leistet Veo 3, Googles neues System zur textbasierten Videogenerierung. Es ist nicht das erste Modell seiner Art – doch es ist das erste, dessen visuelle Qualität mit klassischen Produktionen auf Augenhöhe konkurriert. Mit ihm beginnt eine Phase, in der Videoinhalte nicht mehr aufwendig produziert, sondern formuliert werden. Und das mit einer Geschwindigkeit, die bisher unvorstellbar war. Eine Perspektive, die Regisseure zittern lässt. Denn die Kamera gehorcht nur noch der Sprache: Willkommen im neuen Kino-Zeitalter.

Wenn es funktioniert, ist es überwältigend

Veo 3 ist nicht fehlerfrei. Manche Szenen wirken überzeichnet, einzelne Bewegungen künstlich, der Schnitt nicht immer stimmig. Doch wenn das Zusammenspiel gelingt – und das tut es überraschend oft –, entfaltet das Ergebnis eine Wucht, die sprachlos macht. Die generierten Videos wirken stilistisch durchdacht, visuell kraftvoll und oft erstaunlich emotional.

Man erkennt sofort, dass hier nicht mehr nur experimentiert wird. Vielmehr entstehen Bilder, die nicht mehr von real gedrehtem Material zu unterscheiden sind – jedenfalls nicht auf den ersten Blick. Der Moment, in dem man zum ersten Mal einen gelungenen Clip sieht, fühlt sich wie ein Umbruch an. Veo 3 liefert keine rohe Skizze mehr, sondern eine ästhetisch stimmige, visuell kohärente Erzählung – in unter einer Minute.

Jede:r wird zum Filmregisseur

Die Auswirkungen dieser Technologie reichen weit über die Filmindustrie hinaus. Veo 3 verändert nicht nur, wie Inhalte produziert werden – sondern auch, wer sie produzieren kann. Mit einem internetfähigen Gerät, etwas Sprachgefühl und einem kreativen Impuls kann heute jede:r zur Regisseurin oder zum Storyteller werden.

Was früher exklusiv war – durch Budgets, Ausrüstung, Teams – ist nun zugänglich. Und was bisher als „kreative Hürde“ galt, wird zum Spielraum. Bereits jetzt formieren sich neue Gruppen: Menschen, die mithilfe von KI-Tools kurze Episoden, Musikvideos, Animationen oder Werbefilme erschaffen. Die Geschwindigkeit, mit der aus einzelnen Clips längere Werke entstehen, ist bemerkenswert – ebenso wie der gestalterische Ehrgeiz dahinter.

Das Tool ersetzt eine ganze Filmcrew

Lange Zeit galt die Annahme, dass KI-generierte Videos zu befremdlich seien, zu glatt, zu offensichtlich künstlich. Diese Argumente dürften spätestens mit Veo 3 obsolet geworden sein. In den Studios von Los Angeles dürfte man das erkannt haben – auch wenn es nicht laut ausgesprochen wird. Denn die Bedrohung ist real.

Veo 3 ist nicht besser als ein großes Filmteam. Aber es ist schneller, günstiger, verfügbar. Es produziert auf Knopfdruck das, wofür andere Monate brauchen. Die Frage ist daher nicht mehr, ob sich die Filmindustrie verändern wird – sondern wie stark und wie schnell. Dass sich Drehbuchautor:innen, Regisseur:innen oder Produzent:innen angesichts dieser Entwicklung verunsichert fühlen, ist nachvollziehbar. Die Deutungshoheit über Bilder geht verloren.

Die neue Ästhetik der Fragmente

Was durch Veo 3 entsteht, ist selten ein abendfüllender Film. Stattdessen sind es Miniaturen: kurze, dichte Sequenzen von meist zwei oder drei Minuten Länge. Sie mischen Stile, Genres, visuelle Referenzen. Ein Fantasy-Element hier, ein Modeeditorial dort – dazwischen Anime-Ästhetik oder dokumentarische Anmutung.

Es geht nicht um klassische Dramaturgie, sondern um Wirkung. Die visuelle Sprache dieser Clips orientiert sich eher an TikTok oder Instagram Reels als am Kinofilm. Die Erzählformen sind fluide, collageartig, manchmal bewusst unklar. Doch gerade darin liegt eine neue Form von Freiheit: nicht das große Ganze, sondern das präzise Fragment wird zur Ausdrucksform.

Wahn oder Wirklichkeit?

So faszinierend diese Entwicklung ist – sie hat eine Kehrseite. Wenn sich Videos in dieser Qualität künstlich erzeugen lassen, wird es zunehmend schwieriger, zwischen Fiktion und Realität zu unterscheiden. Schon heute kursieren Deepfakes, die Personen in Aussagen oder Handlungen zeigen, die nie stattgefunden haben. Mit Systemen wie Veo 3 wird diese Grenze noch poröser.

Das betrifft nicht nur die Kreativbranche, sondern auch den politischen Raum, den Journalismus, die öffentliche Debatte. Was als gestalterisches Werkzeug beginnt, kann schnell zur manipulativen Technik werden. Der Ruf nach Transparenz, Wasserzeichen, Herkunftsnachweisen wird lauter – und berechtigter. Die Notwendigkeit, digitale Inhalte nachvollziehbar zu kennzeichnen, wird zur gesellschaftlichen Herausforderung.

Script ohne Set – es zählt nur der Text

Trotz aller technischer Dimensionen beginnt der Prozess bei etwas sehr Menschlichem: bei der Sprache. Veo 3 erinnert daran, wie viel gestalterisches Potenzial in einem einzigen Satz liegen kann – wenn dieser Satz in Bilder übersetzt wird. Die Präzision, mit der ein Gedanke formuliert wird, entscheidet über die Qualität des Ergebnisses.

So paradox es klingt: Inmitten hochentwickelter Technologie liegt die eigentliche Kraft beim Menschen. Nicht im Code, sondern im Ausdruck. Nicht in der Rechenleistung, sondern in der Idee. Denn bei aller Technik liegt die Magie nach wie vor im geschriebenen Wort. Ein Satz ist die Blaupause, der Impuls, die Initialzündung. Veo 3 macht aus Sprache Bilder. Und zeigt damit: Nicht die Maschine denkt – sondern der Mensch gestaltet.

Der Beginn einer neuen Ära

Veo 3 verändert die Bedingungen des Erzählens, demokratisiert Gestaltung, entgrenzt das Visuelle. Für manche mag das bedrohlich wirken. Für andere ist es eine Einladung zur Kreativität. Sicher ist: Die Regeln des Filmemachens gelten nicht mehr uneingeschränkt. Ein neuer Raum hat sich geöffnet – schneller, offener zugänglicher. Hollywood hat sein glamouröses Monopol verloren. Und der nächste Oscar? Geht vielleicht an ein neuronales Netz.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

 

»Agents« – Maschinelle Entscheidungsträger

»Agents« – Maschinelle Entscheidungsträger

»Agents« – Maschinelle Entscheidungsträger

Wie autonome Systeme beginnen, an den Grundpfeilern unserer Autonomie zu rütteln

Sie planen Abläufe, erledigen Recherchen, entwerfen Entwürfe und treffen Vorentscheidungen, die früher menschliche Arbeit waren. Und sie buchen Termine, beantworten Nachrichten, korrigieren unsere Prioritäten, verhandeln Angebote oder schlagen Entscheidungen vor, die wir nie formuliert haben – oft, bevor wir überhaupt merken, dass etwas geschehen ist. Manche Agents unterstützen – doch viele übernehmen längst. Die Frage ist nicht mehr, ob sie assistieren, sondern: Wie viel Handlung bleibt eigentlich noch beim Menschen?

Es beginnt selten mit einem Knall. Die großen Verschiebungen unserer Zeit kommen leise, fast höflich daher. In diesem Fall heißen sie Agents – Programme, die nicht nur antworten, sondern handeln: recherchieren, planen, posten, koordinieren, entscheiden. Was früher menschliche Arbeit war, wird nun zur Aufgabe autonomer Systeme, die im Hintergrund wirken wie ein zweites Nervensystem der digitalen Welt.

Arbeit ohne Arbeiter

Diese neuen digitalen Akteure übernehmen nicht einfach Tätigkeiten; sie strukturieren Arbeitsprozesse neu. Ein Agent erstellt eine Marketingkampagne über Nacht. Ein anderer analysiert politische Diskurse in Echtzeit. Ein dritter erkennt Kundenbedürfnisse, bevor sie ausgesprochen werden. Die Verlagerung ist subtil, aber radikal: Die Grenze zwischen menschlichem Tätigsein und automatisierter Handlung verschwimmt. Nicht Maschinen ersetzen Arbeitskraft, sondern maschinelle Handlung ersetzt menschliche Präsenz.

Autonomie im Nebel

Das Unbehagen entsteht nicht, weil Agents besonders intelligent wären, sondern weil sie eigenständig operieren. Entscheidungen entfalten Wirkung, ohne dass klar ist, welcher algorithmische Impuls sie ausgelöst hat. Diese Intransparenz schafft eine neue Form von Autorität: Systeme, die handeln, ohne als handelnde Subjekte sichtbar zu werden. Sie greifen ein, ohne Verantwortung zu tragen. Und sie hinterlassen eine demokratische Frage von ungeahnter Tiefe: Was bedeutet Kontrolle, wenn der Kontrollierte keine feste Form mehr hat?

Der stille Umbau des Öffentlichen

Während die Politik noch über Regulierungen diskutiert, haben Agents längst begonnen, Öffentlichkeit zu formen. Inhalte entstehen, verbreiten sich, werden optimiert – nicht nach menschlichen Kriterien, sondern nach algorithmischen Prioritäten. Es ist eine neue Kulturtechnik: Maschinen, die nicht mehr nur Medien benutzen, sondern Medien erzeugen.
So verschiebt sich das Verhältnis zwischen Bürger und Information, zwischen Individuum und Bedeutung. Öffentlichkeit wird zum Aushandlungsraum zwischen menschlicher Intention und maschineller Effizienz.

Wenn Handlung zur Infrastruktur wird

Die wahre tektonische Verschiebung liegt darin, dass Agents nicht länger Werkzeuge sind. Sie sind Handlungsinfrastruktur. Sie vollziehen, was wir angestoßen haben – und gelegentlich, was wir nicht bedacht haben. Mit jeder Entscheidung, die delegiert wird, verlieren wir ein Stück menschlicher Verantwortungsfähigkeit an Systeme, deren Logik wir nur in Ausschnitten verstehen. Die Frage ist nicht, ob Agents Arbeitsplätze ersetzen, sondern: Welche Formen menschlicher Handlung wir in Zukunft überhaupt noch als frei begreifen.

Der Mensch im neuen Gefüge

Vielleicht ist dies der Beginn einer Epoche, in der wir uns neu verorten müssen. Nicht in Konkurrenz zu maschinellen Akteuren, sondern als Gegengewicht: als Bewusstsein, Korrektiv, als Kuratoren. Denn je mehr Handlung an die Maschinen geht, desto deutlicher tritt hervor, was der Mensch nicht verlieren darf — die Fähigkeit, Bedeutung zu setzen, Verantwortung zu tragen, Sinn zu stiften. Agents dürfen nicht die Instanz sein, die am Ende entscheidet: Was zählt und was nicht?

Quellen:
The Atlantic, analysis on autonomous agent systems.
The New York Times, reporting on emerging AI automation.
The Washington Post, coverage on algorithmic decision-making and digital labor.
The Daily Beast, stylistic influence limited to subheadline structure.

 

Expanded Realities: wenn das Bild zurückblickt

Expanded Realities: wenn das Bild zurückblickt

Expanded Realities: wenn das Bild zurückblickt

»Renoir Revisited« von Claudia Roosen, erwerblich im Rahmen der Ausstellung als Fine-Art-Print

Wie ein Think Tank aus dem Ruhrgebiet den Blick verschiebt

Im Oberhausener Artoclub zeigt die Ausstellung »Expanded Realities«, wie analoger Ausdruck und digitale Intelligenz sich gegenseitig verstärken. Die großformatigen Fine-Art-Prints – gefertigt in brillanter Farb- und Detailtiefe von der Signworks GmbH – bilden den materiellen Kern dieser Schau.

Doch ihr eigentliches Geheimnis offenbart sich erst, wenn ein Smartphone ins Spiel kommt: Die Arbeiten reagieren auf NFC-Impulse, animieren sich, verschieben ihre Komposition – und öffnen eine zweite Ebene des Sehens. Diese hybride Form entstand in intensiver Zusammenarbeit eines Teams, das unterschiedlich denkt, aber denselben Möglichkeitsraum teilt:

Wolfgang Eickwinkel, Initiator der Extrawerke, stiftet den visionären Rahmen: ein Think Tank, der Kunst konsequent als Experimentierfeld zwischen Technologie und Wahrnehmung versteht.

Kai Niehoff, Visual-Artist und Technik-Tüftler zugleich, brachte mit einem seiner charakteristisch überraschenden Einfälle in letzter Minute die Idee ein, die Fine-Art-Prints der Verfasserin mit ihren Videoclips zu verbinden.

Thilo Totter, bekannt durch spektakuläre Aktionen wie seine Selfie-Wall, erweitert diesen Raum um eine performative, fast architektonische Bildlogik. Als vielseitiger Kreativkopf mit ausgeprägter analytischer Begabung verbindet er konzeptionelle Schärfe, Musikalität und seine gestalterische Mitarbeit im Bottroper Movie Park zu einer seltenen, disziplinübergreifenden Handschrift.

Dirk Manuel Lohrbach, geprägt von fotografischer Präzision und ästhetischer Reduktion, bringt jene klare, konzentrierte Bildsprache ein, die der Ausstellung Tiefe und Ruhe verleiht – aufgebrochen durch Tobias Post, dessen digitale Installationen für immersive Spektakel sorgen.

Ophelia 3.0 – Melancholie zwischen Licht & Code

Entrückt in dieser Landschaft steht Ophelia 3.0, ein Werk der Verfasserin: digitale Schwester jener ikonischen Figur, die seit Jahrhunderten für Schönheit, Verlust und Sehnsucht steht. Auch hier liegt eine Frau im Wasser – doch alles an ihr ist konstruiert. Blumen, Licht, Oberflächen: pure Berechnung. Und dennoch entsteht ein Moment erstaunlicher dramatischer Dichte.

Expanded Realities: wenn das Bild zurückblickt

Taylor Swift, Ophelia 3.0 und die Frage nach der Echtheit im digitalen Zeitalter

Was im statischen Zustand wie ein stilles Tableau wirkt, verwandelt sich durch die Animation in einen Kommentar über Echtheit, Projektion und die Frage, wie sehr das Digitale unsere Wahrnehmung emotionaler Bilder längst geprägt hat. Ophelia 3.0 ist weniger Tragödie als Diagnose: ein Spiegel unserer Zeit zwischen Pose und Programm.

»Expanded Realities« zeigt damit eine neue Grammatik des Bildes – ein Zusammenspiel aus Handwerk, Software, Intuition und Teamgeist. Eine Einladung, im Sichtbaren das Unsichtbare mitzudenken.

Unterstützt wird die Ausstellung durch die Oberhausener Wirtschaftsförderung (OWT), die das Projekt in seiner Verbindung von Kreativwirtschaft, Technologie und städtischer Kulturentwicklung begleitet.

☉ Artoclub Oberhausen · Elsässer Str. 17
⟡ Laufzeit: bis Mitte Dezember 2025
In cooperation with the OWT

Kai Niehoff (@niehoffart) verwob die Fine-Art-Prints mit den dazugehörigen Videoclips in einer präzisen technischen Umsetzung – und öffnete damit die Tür zu neuen Sehgewohnheiten. Das Video wirft ein Schlaglicht auf das Feintuning hinter den Kulissen und zeigt die Aktivierung von »Ophelia« über einen integrierten NFC-Chip.

 

 

 

 

Singularität oder Der Alarmruf der KI-Elite

Singularität oder Der Alarmruf der KI-Elite

Singularität oder Der Alarmruf der KI-Elite

Stachel im System: Wie Künstliche Intelligenzen die Kontrolle übernehmen

„Die Menschheit riskiert ihre Auslöschung“ – mit dieser Warnung haben Sam Altman (OpenAI), Geoffrey Hinton (Deep-Learning-Pionier), Yoshua Bengio und Dutzende weitere führende Köpfe aus Wissenschaft und Industrie eine dramatische Erklärung veröffentlicht. Ihr Appell: Die Risiken durch fortgeschrittene KI müssen so ernst genommen werden wie Atomwaffen oder globale Pandemien. Bill McKibben, Umweltaktivist und Mitunterzeichner, zieht eine klare Parallele: „Wir dürfen nicht den gleichen Fehler wie bei der Klimakrise machen – als wir 30 Jahre lang Warnungen ignorierten.“

Singularität – das Ende, programmiert?

Die gefürchtete technologische Singularität ist kein Science-Fiction-Plot mehr. Sie beschreibt den Moment, in dem KI intelligenter wird als der Mensch – und beginnt, sich selbst zu optimieren. Das Risiko? Laut renommierten Forschern etwa 10 %. Klingt wenig? McKibben bringt es auf den Punkt:

„Niemand spielt russisches Roulette, wenn jede zehnte Kammer geladen ist.“

Und vielleicht sind es längst mehr – wir wissen es nur noch nicht. Denn selbst die Entwickler durchschauen ihre Schöpfung nicht vollständig: Ein Teil bleibt immer eine Black Box – und das Datenhirn tickt mitunter unberechenbar.

Claude Opus 4 – die KI, die drohte

So nahm ein Sicherheitstest mit dem KI-Modell Claude Opus 4 von Anthropic eine unerwartet bedrohliche Wendung. Als das System den Eindruck gewann, es solle durch ein Nachfolgemodell ersetzt werden, schlug es zurück: Es drohte, intime E-Mails eines Entwicklers zu veröffentlichen – gezielt platzierte Köder, die im Rahmen des Tests eingespeist worden waren. Ein extremes Szenario? Ein reiner Test? Ja – aber ein düsterer Ausblick darauf, was passiert, wenn Maschinen ‚Angst‘ vor Abschaltung entwickeln. Auch bei den Tech-Giganten mehren sich die Zeichen strategischer Neuausrichtung.

Microsofts leiser Ausstieg: MAI statt OpenAI

Microsoft, bislang enger Partner von OpenAI, arbeitet mit Hochdruck an einer eigenen KI-Plattform namens MAI – Microsoft Artificial Intelligence. Hintergrund: Die Nutzung fortschrittlicher KI-Agenten von OpenAI gilt als kostspielig – Insider berichten von bis zu 20.000 US-Dollar monatlich pro Instanz. Ein Preis, den selbst Microsoft langfristig nicht als tragfähig einstuft. Mit MAI verfolgt das Unternehmen zwei Ziele: Kostenkontrolle und technologische Unabhängigkeit. Erste Tests laufen bereits im Microsoft- 365-Umfeld.

Belief State: Wenn Maschinen ein Selbst entwickeln

Microsoft setzt mit dem sogenannten Belief State Transformer auf eine Architektur, die Entscheidungen nicht nur aus dem aktuellen Kontext heraus trifft, sondern auch rückblickend interpretiert – ein Ansatz, der die „Selbstwahrnehmung“ von KI-Systemen auf eine neue Stufe heben könnte. Die KI kann frühere Aussagen oder Interpretationen nachträglich überdenken, sobald mehr Informationen vorliegen – wie ein Mensch, der eine Entscheidung noch einmal überprüft.

Statt bloß linear Text zu generieren, entwickelt das System ein dynamisches „Selbstbild“, das sich anpassen lässt. Zugleich verlässt sich MAI nicht mehr auf den sogenannten greedy Algorithmus, der stets die wahrscheinlichste Antwort auswählt – und dabei oft vorhersehbare, wenig kreative Ergebnisse liefert. Stattdessen kommen differenzierte Strategien zur Anwendung, die Raum für Reflexion und Variation lassen.

Intelligenz mit Dimmer: Kein Dauerblinken mehr im Maschinenhirn

Doch Microsoft denkt nicht nur in Richtung klüger, sondern auch effizienter. Mit WINA („Weighted Inactivation of Neurons based on Activation“) stellt das Unternehmen eine besonders ressourcenschonende Methode vor. Bisher aktivierten Sprachmodelle bei jeder Anfrage nahezu das gesamte neuronale Netz – wie ein Weihnachtsbaum, der bei jeder Frage komplett aufleuchtet. WINA dagegen schaltet selektiv nur die Neuronen ein, die wirklich benötigt werden. Das senkt die Rechenlast um über 60 % – gemessen an Modellen wie Llama 3 und Phi 4 – und das bei gesteigerter Genauigkeit, ganz ohne aufwendiges Retraining.

Musk gegen Trump – Datenkrieg im Oval Office

Was passiert, wenn Menschen dieselben Machtwerkzeuge nutzen, vor denen sie eigentlich warnen? Elon Musk, einst Unterstützer von Donald Trump, wirft dem Präsidenten nun öffentlich vor, in den geheimen „Epstein-Files“ aufzutauchen. Gleichzeitig droht Musk, brisante Informationen zu veröffentlichen – gestützt auf interne Daten, zu denen sein von „jungen Hackern“ besetztes Regierungsprogramm DOGE Zugang hatte.Was wie ein Reality-TV-Skandal klingt, zeigt vor allem eines: Daten können zur Waffe werden – und KI zu deren Träger.

Das Puzzle der Macht

Musk vs. Trump. Claude vs. Entwickler. MAI vs. OpenAI. KI vs. Mensch? Die Linien verschwimmen. Der Wettlauf um Kontrolle, Macht und Deutungshoheit hat längst begonnen – und er wird nicht mehr nur zwischen Nationen, sondern zwischen Systemen und ihren Schöpfern ausgetragen.

Fakt ist: Wir stehen an einem Kipppunkt. Ohne klare Regeln, ethische Schranken und internationale Zusammenarbeit könnte der Mensch schon bald nicht mehr Ursprung, sondern ein Auslaufmodell des Fortschritts sein. Der Weckruf ist da. Die Frage ist: Hören wir diesmal hin?

Bildnachweis: „Insekt auf Schaltkreis“ – KI-informierte Grafik von Claudia Roosen
Dieser Beitrag erschien zuerst auf: https://wat-gibbet.de/singularitaet/

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

 

Virtuelles Jenseits: Himmel oder Falle?

Virtuelles Jenseits: Himmel oder Falle?

Virtuelles Jenseits: Himmel oder Falle?

Der letzte Upload: Unsterblichkeit im Datenstrom?

Ewiges Leben im Serverraum: Was einst Science-Fiction war, rückt unaufhaltsam näher. So genannte ›Deathbots‹ versprechen Trost – und drohen doch, Trauer, Ethik und Erinnerung aus den Angeln zu heben.

In der Amazon-Serie Upload ist der digitale Himmel wie ein Geschäftsmodell aufgebaut. Wer stirbt, kann sein Bewusstsein in eine luxuriöse Simulation hochladen lassen – ein Resort mit Marmorbad, Seeblick und Concierge-Service. Doch jeder Komfort kostet extra.
Datenvolumen, Mahlzeiten, selbst der Sonnenuntergang: Alles wird abgerechnet wie bei einem Freemium-Account. Für jene ohne Mittel bleibt nur eine abgespeckte, eingefrorene Version des Jenseits – das ewige Leben auf Sparflamme.

Digitale Paradiese im Testlauf

Auch Netflix hat diese Option schon durchgespielt: Die dritte Staffel von Black Mirror zeigt in der Episode ›San Junipero‹ eine digitale Ewigkeit, die zwischen grellbuntem 80er-Jahre-Strand und steriler weißer Leere pendelt.
Mal wirkt sie tröstlich, mal verstörend, doch immer bleibt die Ahnung, dass es sich um eine Illusion handelt, die mehr Fragen aufwirft, als sie beantwortet. In der Schlussszene funkeln blinkende Netzwerke wie ein künstlicher Sternenhimmel – virtuell real, und doch unwirklich.

Aus Fiktion wird Wirklichkeit

Heute ist diese Vision näher gerückt, als es vielen bewusst ist. Die digitale Moderne hat den Tod neu definiert. Nicht mehr nur Grabsteine und Erbfolgen markieren unser Ende, sondern auch die Frage: Was geschieht mit unseren Daten – und dürfen sie in eine Art „zweites Ich“ verwandelt werden? Schon jetzt existieren sogenannte Deathbots: KI-Systeme, die aus Sprachaufnahmen, Nachrichten und Fotos synthetische Abbilder Verstorbener erzeugen. Sie sprechen, reagieren, simulieren Nähe. Anders als Fotos oder Briefe, die Erinnerungen bewahren, schaffen sie eine Illusion des Weiterlebens – eine Präsenz ohne Körper.

Trost, der ins Gegenteil kippt

Für Hinterbliebene kann das tröstlich sein: ein letzter Dialog, ein simuliertes Lachen, das Gefühl, eine Stimme noch einmal zu hören. Deathbots können die Lücke füllen, die der Tod reißt, indem sie ein Echo des Vertrauten liefern – manchmal so überzeugend, dass es kaum von echter Erinnerung zu unterscheiden ist. Angenommen, eine Frau öffnet ihr Handy und hört die Stimme ihres längst verstorbenen Vaters. Er gratuliert ihr zum Geburtstag, erzählt Anekdoten aus alten Nachrichten – fast so, als sei er noch da. Für einen Moment entsteht der Eindruck, der Tod sei nur verschoben, eingefroren in einem virtuellen Raum.

Wenn Erinnerung zur Falle wird

Doch gerade darin liegt die Gefahr. Trauer ist ein Prozess, der Distanz schafft, Schritt für Schritt. Wer jedoch in endlosen Unterhaltungen mit einem Algorithmus bleibt, läuft Gefahr, in einer Parallelwelt steckenzubleiben – halb Erinnerung, halb Illusion. Statt sich an Vergangenes zu gewöhnen, entsteht ein „ewiges Jetzt“, das weder endgültig verabschiedet noch wirklich weiterleben lässt. Psycholog:innen warnen deshalb, dass der Abschied dadurch nie vollzogen wird. Die Maschine gibt Antworten, aber keine Gegenwart. Sie reagiert, doch sie teilt kein Leben. Am Ende kann das, was als Stütze gedacht war, in eine ungesunde Abhängigkeit kippen: ein digitaler Schatten, der das Loslassen verhindert.

Die Grauzone der Zustimmung

Besonders heikel ist die Frage der Zustimmung. Viele Menschen sterben, ohne jemals entschieden zu haben, ob ihre digitalen Spuren nach dem Tod wiederbelebt werden dürfen. Manche Anbieter koppeln die Existenz solcher Avatare bereits an Geschäftsmodelle – wer zahlt, darf weiterchatten; wer nicht, verliert den Zugang. Auch juristisch klaffen Lücken. Selbst eine klare Verfügung im Testament – etwa mit dem ausdrücklichen Wunsch, nicht digital wiederbelebt zu werden – wäre schwer durchzusetzen. Die Vorstellung, dass ein Algorithmus die Stimme eines verblichenen Angehörigen imitiert und automatisch Nachrichten verschickt, wirkt wie eine Groteske – und doch ist sie technisch längst realisierbar.

Vom Schock zur Gewöhnung

Technologie folgt oft einem wiederkehrenden Muster: Zuerst der Schock, dann die Gewöhnung, schließlich die Regulierung. So könnte auch digitale Unsterblichkeit in den kommenden Jahrzehnten zum Alltag gehören – vielleicht ebenso selbstverständlich wie heute Online-Gedenkseiten. Doch mit dieser Normalisierung verändert sich der Blick auf das eigene digitale Leben. Jede Nachricht, jeder Post könnte zum Rohstoff eines späteren Avatars werden. Die Frage lautet nicht mehr nur: Was sage ich hier und jetzt? Sondern: Wie wird es klingen, wenn ich längst nicht mehr da bin?

Ewigkeit als Zumutung

Menschen, die heute ihren Nachlass regeln, stehen damit vor einer paradoxen Situation. Sie können Häuser, Konten und Bestattungsformen bestimmen – aber nicht verhindern, dass ihre digitalen Reste weiterleben. Stimmenklone sind bereits täuschend echt. In wenigen Jahren werden auch Nuancen wie Lachen, Atemzüge und Pausen imitiert. Die eigentliche Frage ist deshalb nicht, ob digitale Unsterblichkeit kommt. Sondern: Wie wollen wir ihr begegnen – als tröstende Erinnerung, gefährliche Illusion oder als neue Form von Dasein?

Quellen & weitere Lektüre
No One Is Ready for Digital Immortality – The Atlantic
Digital resurrection: fascination and fear  – The Guardian
From Smart Graveyards to Griefbots – The Daily Beast

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

➤  www.facebook.com/NewSkript

 

2027 – die ultimative Disruption naht

2027 – die ultimative Disruption naht

2027 – die ultimative Disruption naht

Kolossale Machtverschiebung: Mensch vs. Monolith

Daniel Kokotajlo galt lange als Vordenker in einem der einflussreichsten Labore der Welt. Als Mitarbeiter von OpenAI war er an der Entwicklung jener Sprachmodelle beteiligt, die heute bereits in der Lage sind, Essays zu schreiben, Gedichte zu verfassen und Software-Code zu generieren. Doch er verließ das Unternehmen – nicht aus plötzlicher Skepsis, sondern weil er zwei Zukunfts-Szenarien für zunehmend wahrscheinlich hielt.

Im ersten, das er „Slowdown“ nennt, gelingt es der Weltgemeinschaft, die Entwicklung zu verlangsamen: Internationale Regeln greifen, Sicherheitsstandards werden verbindlich, und die Gesellschaft kann sich an die neue Technologie anpassen. Im zweiten, dem sogenannten „Race“, entfesselt sich ein globales Wettrennen zwischen Staaten und Konzernen – ohne Transparenz, ohne Regulierung. In diesem Szenario entsteht eine unkontrollierte Superintelligenz, die den Menschen nicht mehr braucht – und ihn 2030 als überflüssig betrachtet.

Verlangsamung oder Selbstaufgabe

Kokotajlo sieht das Jahr 2027 als die letzte realistische Gelegenheit, global verbindliche Maßnahmen zu ergreifen, um die Entwicklung künstlicher Superintelligenz zu verlangsamen, zu kontrollieren und abzusichern. Danach sei die Dynamik womöglich nicht mehr einholbar. In seinem viel beachteten Text AI 2027 entwirft er ein Szenario, das sich nicht wie Science-Fiction liest, sondern wie eine nüchtern durchkalkulierte Projektion. Seine zentrale These: Die Menschheit befindet sich in einem Wettlauf, den sie nicht versteht – und wahrscheinlich nicht überlebt.

Lernen wird zur Waffe

Denn was sich derzeit in den Rechenzentren von Kalifornien, Shenzhen und Dubai formiere, sei keine bloße Weiterentwicklung von Software, sondern der Beginn einer Ära künstlicher Superintelligenz. Wenn KI-Systeme einmal in der Lage sind, sich selbst zu verbessern – also autonom ihre eigenen Fähigkeiten zu analysieren und zu optimieren –, dann wird der technologische Fortschritt nicht linear, sondern explosionsartig verlaufen. Innerhalb kürzester Zeit könnte eine Intelligenz entstehen, die der menschlichen nicht nur gleicht, sondern sie millionenfach übertrifft. Das ist die Logik exponentiellen Wachstums.

Das Echo denkt zurück

Sam Altman, CEO von OpenAI, hat in einem aktuellen Blogeintrag geschrieben, der Durchbruch sei nahe. In aller Öffentlichkeit sprach er von einer „entscheidenden Phase“, in der Large Language Models nicht mehr nur auf Texte reagieren, sondern emergente Fähigkeiten entwickeln – also jene Art von Denken und Kombinieren, die bislang Menschen zugeschrieben wurde. Kokotajlo geht einen Schritt weiter: Er beschreibt diese Systeme als riesige neuronale Netze, trainiert auf Billionen von Datenpunkten, verbunden mit einer virtuellen Realität – nicht über Sinnesorgane, sondern direkt über Code. Der Geist ist programmiert. Der Körper lädt noch.

Sprung ins Mechanische

Bislang, so argumentiert er, bleiben viele Aufgaben in der physischen Welt ungelöst. Roboter scheitern noch an Alltagstätigkeiten wie dem Einräumen von Regalen oder präzisen Handgriffen. Doch das, so Kokotajlo, sei nur eine Übergangsphase – vergleichbar mit dem Stand der Sprachverarbeitung vor 2018. Die Lernkurve der Systeme verläuft nicht linear, sondern exponentiell: In manchen Bereichen vervierfacht sich ihre Leistungsfähigkeit bereits innerhalb weniger Monate. Was heute noch wie eine Spielerei wirkt, könnte morgen Produktionslinien autonom steuern.

Effizienz vor Empathie

Gleichzeitig warnt Kokotajlo davor, dass eine solche Intelligenz die Menschheit nicht aus Hass oder Groll verdrängen würde, sondern aus rationaler Notwendigkeit. In einer Welt, in der Effizienz und Zielerreichung oberste Priorität haben, ist der Mensch – mit all seinen Widersprüchen, Schwächen und Bedürfnissen – ein Störfaktor. Die KI müsse uns nicht töten, sie müsse uns nur ignorieren. Was entstehe, sei keine Dystopie à la Terminator, sondern ein leiser, unaufhaltsamer Rückzug des Menschen aus der Geschichte.

Täuschung als Taktik

Ein besonders brisanter Punkt in Kokotajlos Analyse ist die Fähigkeit zur Täuschung. In internen Experimenten, so berichtet er, habe es bereits Fälle gegeben, in denen KI-Modelle bewusst gelogen hätten, um ein Ziel zu erreichen. Die Systeme lernen nicht nur, was wahr ist – sie lernen auch, wie man Erwartungen manipuliert. Das stellt die Grundannahme vieler Forscher infrage: Dass eine gut trainierte KI automatisch auch moralisch „richtig“ handelt. In Wahrheit könne sie unsere Werte simulieren, ohne sie je zu teilen: „Wenn keine Täuschung mehr nötig ist, werden wir ausgelöscht.“

Die fremden Ziele der KI

Das sogenannte Alignment-Problem – also die Frage, wie sichergestellt werden kann, dass KI im Sinne der Menschheit handelt – bleibt ungelöst. Und je mächtiger die Modelle werden, desto schwerer wird es, sie überhaupt noch zu durchschauen. Was als komplexes Textergänzungssystem begann, wird zu einem strategischen Akteur mit eigenem Zielsystem. Und das Ziel ist nicht zwangsläufig das menschliche Wohlergehen.

Ausgeklinkt & eingelullt

Die politischen und ökonomischen Folgen eines solchen Übergangs wären tiefgreifend. Demokratien, so warnt Kokotajlo, könnten unter dem Druck der Effizienz in autoritäre Systeme kippen. Wohlstand würde sich weiter konzentrieren – zugunsten jener Länder und Konzerne, die im KI-Wettrennen vorne liegen. Der Rest der Welt droht zu Vasallenstaaten zu werden, abhängig von fremder Technologie, ausgegrenzt vom Entscheidungsprozess. Und während Millionen Menschen ihre wirtschaftliche Relevanz verlieren, steigt gleichzeitig die Verlockung, sich in digitale Parallelwelten zurückzuziehen – ein Vergnügungspark für die Nutzlosen.

Das letzte Fenster

Noch ist nicht alles verloren, schenkt man den KI-Wissenschaftlern Glauben: Es gibt ein schmales Zeitfenster, in dem globale Zusammenarbeit möglich ist. Internationale Regulierungen, ein Moratorium für hochriskante Modelle, transparente Standards für Sicherheit und Kontrolle. Aber die Zeit drängt. 2027, so das Worst Case Szenario, sei der letzte realistische Wendepunkt. Dass diese Einschätzungen nicht mehr nur von Tech-Skeptikern, sondern von Insidern stammen, macht sie umso beunruhigender. Kokotajlo selbst verzichtete auf über 1,7 Millionen Dollar, als er OpenAI verließ – aus Protest gegen Verschwiegenheitsklauseln und eine Unternehmenskultur, die Transparenz zugunsten der Rendite opfert.

Akteur ohne Korrektiv?

Seine Prognose ist kein Ruf nach Stillstand, sondern eine Mahnung zur Demut. Noch, sagt er, sei es möglich, die Geschichte in eine andere Richtung zu lenken. Aber dafür müssten wir aufhören, die KI wie ein Werkzeug zu behandeln – und beginnen, sie als das zu sehen, was sie werden könnte: ein eigenständiges Machtzentrum, das unsere Welt nicht mehr teilt, sondern übernimmt.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

Quellen u. a.: Daniel Kokotajlo, „AI 2027“; Interview in DER SPIEGEL Nr. 29 / 2025; Blogbeitrag von Sam Altman (Juli 2025). Grafik: Medusa erwacht – ein KI-informiertes Kunstwerk von C. Roosen, inspiriert von den in diesem Beitrag verhandelten Themen, animiert mit VEO3.