Scheinsieg – Drohung als Strategie?

Scheinsieg – Drohung als Strategie?

Scheinsieg – Drohung als Strategie?

Trump im Spannungsfeld von außenpolitischer Drohkulisse und innerem Zerfall

Die Tonlage hat sich drastisch verschärft. In einem Beitrag auf seiner Plattform Truth Social drohte Donald Trump, „eine ganze Zivilisation werde heute Nacht sterben“ – eine Formulierung, die selbst im sicherheitspolitischen Establishment als extrem und potenziell völkerrechtswidrig gilt. Und doch liegt genau hier der Widerspruch: Die Drohung scheint kurzfristig Wirkung gezeigt zu haben – sie erhöhte den Druck, beschleunigte Verhandlungen, verschob Dynamiken. Aber ihr Erfolg bleibt oberflächlich. Denn was als taktischer Hebel funktioniert, offenbart zugleich ein strategisches Vakuum.

Zwar ist die Straße von Hormus vorerst wieder passierbar – doch das war nie das eigentliche Kriegsziel. Weder wurde der Einfluss Irans nachhaltig zurückgedrängt noch eine belastbare politische Lösung erreicht. Der freie Seeweg erscheint als sichtbarer Erfolg, verdeckt jedoch, dass die strategischen Ziele unerfüllt geblieben sind. Was bleibt, ist ein fragiler Zustand: Bewegung ohne Richtung, Entspannung ohne Klärung – und ein Frieden, der keiner ist.

Waffenstillstand mit eingebautem Missverständnis
Der nun verkündete „Erfolg“ bröckelt bereits im Detail. Unterschiedliche Versionen des Waffenstillstandsabkommens deuten darauf hin, dass zentrale Punkte – insbesondere zur Urananreicherung – möglicherweise gar nicht geklärt sind. Der erklärte Sieg könnte auf einer Fehlinterpretation beruhen. Ein diplomatischer Triumph, der sich als Übersetzungsfehler entpuppt, wäre mehr als nur eine Blamage – er wäre ein strukturelles Risiko.

Öl, Märkte, Realität: Die Rechnung folgt sofort
Während politisch von Deeskalation gesprochen wird, reagieren die Märkte gegenteilig. Ölpreise sind seit Beginn des Konflikts massiv gestiegen, Treibstoffpreise haben neue Höchststände erreicht. Die wirtschaftliche Realität widerspricht der politischen Inszenierung. Der freie Seeweg durch die Straße von Hormus ist kein Sieg – sondern lediglich das Minimum, um einen globalen Schock zu verhindern.

Epstein bleibt der stille Brandherd
Gleichzeitig gewinnt ein anderes Thema erneut an Schärfe: die Epstein-Akten. Im Kern geht es um ein kriminelles Netzwerk, das über Jahre hinweg die systematische Ausbeutung und den Missbrauch minderjähriger Mädchen organisierte und durch ein Geflecht aus Einfluss, Geld und Macht absicherte. Trumps Name tauchte in diesem Umfeld über Jahre hinweg in verschiedenen Kontexten auf – Begegnungen, Aussagen, soziale Überschneidungen. Juristisch bleibt vieles ungeklärt, politisch jedoch ist der Schaden längst real. Es ist ein Schatten, der sich nicht mehr ausblenden lässt.

Die Revolte kommt von innen
Besonders bemerkenswert: Der Widerstand formiert sich zunehmend im eigenen Lager. Selbst prominente Unterstützer wie Tucker Carlson oder Figuren aus dem harten MAGA-Kern stellen sich offen gegen ihn. Auch Marjorie Taylor Greene und Alex Jones zählen laut aktuellen Berichten zu jenen, die inzwischen Zweifel äußern oder sogar Maßnahmen gegen ihn fordern. Die Kritik ist nicht mehr randständig – sie kommt aus dem Inneren der Bewegung.

Ein Präsident unter Beobachtung
Die Konsequenz ist drastisch: Erste Stimmen fordern offen eine Prüfung nach dem 25. Verfassungszusatz – also die Möglichkeit, einen amtierenden Präsidenten für amtsunfähig zu erklären . Was einst undenkbar schien, wird nun zumindest diskutiert.

Ein Frieden, der keiner ist
Der aktuelle Zustand ist kein stabiler Frieden, sondern ein taktisches Innehalten. Der Konflikt ist ungelöst, die Fronten bestehen fort, die ökonomischen Folgen verschärfen sich – und die politische Basis beginnt zu bröckeln. Der eigentliche Befund dieses Moments ist ernüchternd: Nicht der Krieg wurde gewonnen. Sondern lediglich Zeit.

Sobald Sie ein YouTube-Video auf dieser Website starten, wird eine Verbindung zu den Servern von YouTube hergestellt. Weitere Informationen dazu finden Sie in der Datenschutzerklärung.

Quellen:
The Daily Beast
— „Trump Threatens to Kill ‘Whole Civilization’ as Iran Deal Falters“
The Daily Beast — „Three Missing Words in Ceasefire Plan Could Make a Fool of Trump“
The Washington Post — „Trump’s Iran Strategy Raises Questions About Long-Term Goals“
The Atlantic — „What Trump’s Iran Escalation Reveals About His Foreign Policy“

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Politik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

https://www.instagram.com/newskript_official/

Virtuelles Jenseits: Himmel oder Falle?

Virtuelles Jenseits: Himmel oder Falle?

Virtuelles Jenseits: Himmel oder Falle?

Der letzte Upload: Unsterblichkeit im Datenstrom?

Ewiges Leben im Serverraum: Was einst Science-Fiction war, rückt unaufhaltsam näher. So genannte ›Deathbots‹ versprechen Trost – und drohen doch, Trauer, Ethik und Erinnerung aus den Angeln zu heben.

In der Amazon-Serie Upload ist der digitale Himmel wie ein Geschäftsmodell aufgebaut. Wer stirbt, kann sein Bewusstsein in eine luxuriöse Simulation hochladen lassen – ein Resort mit Marmorbad, Seeblick und Concierge-Service. Doch jeder Komfort kostet extra.
Datenvolumen, Mahlzeiten, selbst der Sonnenuntergang: Alles wird abgerechnet wie bei einem Freemium-Account. Für jene ohne Mittel bleibt nur eine abgespeckte, eingefrorene Version des Jenseits – das ewige Leben auf Sparflamme.

Digitale Paradiese im Testlauf

Auch Netflix hat diese Option schon durchgespielt: Die dritte Staffel von Black Mirror zeigt in der Episode ›San Junipero‹ eine digitale Ewigkeit, die zwischen grellbuntem 80er-Jahre-Strand und steriler weißer Leere pendelt.
Mal wirkt sie tröstlich, mal verstörend, doch immer bleibt die Ahnung, dass es sich um eine Illusion handelt, die mehr Fragen aufwirft, als sie beantwortet. In der Schlussszene funkeln blinkende Netzwerke wie ein künstlicher Sternenhimmel – virtuell real, und doch unwirklich.

Aus Fiktion wird Wirklichkeit

Heute ist diese Vision näher gerückt, als es vielen bewusst ist. Die digitale Moderne hat den Tod neu definiert. Nicht mehr nur Grabsteine und Erbfolgen markieren unser Ende, sondern auch die Frage: Was geschieht mit unseren Daten – und dürfen sie in eine Art „zweites Ich“ verwandelt werden? Schon jetzt existieren sogenannte Deathbots: KI-Systeme, die aus Sprachaufnahmen, Nachrichten und Fotos synthetische Abbilder Verstorbener erzeugen. Sie sprechen, reagieren, simulieren Nähe. Anders als Fotos oder Briefe, die Erinnerungen bewahren, schaffen sie eine Illusion des Weiterlebens – eine Präsenz ohne Körper.

Trost, der ins Gegenteil kippt

Für Hinterbliebene kann das tröstlich sein: ein letzter Dialog, ein simuliertes Lachen, das Gefühl, eine Stimme noch einmal zu hören. Deathbots können die Lücke füllen, die der Tod reißt, indem sie ein Echo des Vertrauten liefern – manchmal so überzeugend, dass es kaum von echter Erinnerung zu unterscheiden ist. Angenommen, eine Frau öffnet ihr Handy und hört die Stimme ihres längst verstorbenen Vaters. Er gratuliert ihr zum Geburtstag, erzählt Anekdoten aus alten Nachrichten – fast so, als sei er noch da. Für einen Moment entsteht der Eindruck, der Tod sei nur verschoben, eingefroren in einem virtuellen Raum.

Wenn Erinnerung zur Falle wird

Doch gerade darin liegt die Gefahr. Trauer ist ein Prozess, der Distanz schafft, Schritt für Schritt. Wer jedoch in endlosen Unterhaltungen mit einem Algorithmus bleibt, läuft Gefahr, in einer Parallelwelt steckenzubleiben – halb Erinnerung, halb Illusion. Statt sich an Vergangenes zu gewöhnen, entsteht ein „ewiges Jetzt“, das weder endgültig verabschiedet noch wirklich weiterleben lässt. Psycholog:innen warnen deshalb, dass der Abschied dadurch nie vollzogen wird. Die Maschine gibt Antworten, aber keine Gegenwart. Sie reagiert, doch sie teilt kein Leben. Am Ende kann das, was als Stütze gedacht war, in eine ungesunde Abhängigkeit kippen: ein digitaler Schatten, der das Loslassen verhindert.

Die Grauzone der Zustimmung

Besonders heikel ist die Frage der Zustimmung. Viele Menschen sterben, ohne jemals entschieden zu haben, ob ihre digitalen Spuren nach dem Tod wiederbelebt werden dürfen. Manche Anbieter koppeln die Existenz solcher Avatare bereits an Geschäftsmodelle – wer zahlt, darf weiterchatten; wer nicht, verliert den Zugang. Auch juristisch klaffen Lücken. Selbst eine klare Verfügung im Testament – etwa mit dem ausdrücklichen Wunsch, nicht digital wiederbelebt zu werden – wäre schwer durchzusetzen. Die Vorstellung, dass ein Algorithmus die Stimme eines verblichenen Angehörigen imitiert und automatisch Nachrichten verschickt, wirkt wie eine Groteske – und doch ist sie technisch längst realisierbar.

Vom Schock zur Gewöhnung

Technologie folgt oft einem wiederkehrenden Muster: Zuerst der Schock, dann die Gewöhnung, schließlich die Regulierung. So könnte auch digitale Unsterblichkeit in den kommenden Jahrzehnten zum Alltag gehören – vielleicht ebenso selbstverständlich wie heute Online-Gedenkseiten. Doch mit dieser Normalisierung verändert sich der Blick auf das eigene digitale Leben. Jede Nachricht, jeder Post könnte zum Rohstoff eines späteren Avatars werden. Die Frage lautet nicht mehr nur: Was sage ich hier und jetzt? Sondern: Wie wird es klingen, wenn ich längst nicht mehr da bin?

Ewigkeit als Zumutung

Menschen, die heute ihren Nachlass regeln, stehen damit vor einer paradoxen Situation. Sie können Häuser, Konten und Bestattungsformen bestimmen – aber nicht verhindern, dass ihre digitalen Reste weiterleben. Stimmenklone sind bereits täuschend echt. In wenigen Jahren werden auch Nuancen wie Lachen, Atemzüge und Pausen imitiert. Die eigentliche Frage ist deshalb nicht, ob digitale Unsterblichkeit kommt. Sondern: Wie wollen wir ihr begegnen – als tröstende Erinnerung, gefährliche Illusion oder als neue Form von Dasein?

Quellen & weitere Lektüre
No One Is Ready for Digital Immortality – The Atlantic
Digital resurrection: fascination and fear  – The Guardian
From Smart Graveyards to Griefbots – The Daily Beast

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

https://www.instagram.com/newskript_official/

 

2027 – die letzte Frist für ein Moratorium

2027 – die letzte Frist für ein Moratorium

2027 – die letzte Frist für ein Moratorium

Das Jahr 2027 als möglicher Kipppunkt: KI-Clip @newskript_official.

Daniel Kokotajlo galt lange als Vordenker in einem der einflussreichsten Labore der Welt. Als Mitarbeiter von OpenAI war er an der Entwicklung jener Sprachmodelle beteiligt, die heute bereits in der Lage sind, Essays zu schreiben, Gedichte zu verfassen und Software-Code zu generieren. Doch er verließ das Unternehmen – nicht aus plötzlicher Skepsis, sondern weil er zwei Zukunfts-Szenarien für zunehmend wahrscheinlich hielt.

Im ersten, das er „Slowdown“ nennt, gelingt es der Weltgemeinschaft, die Entwicklung zu verlangsamen: Internationale Regeln greifen, Sicherheitsstandards werden verbindlich, und die Gesellschaft kann sich an die neue Technologie anpassen. Im zweiten, dem sogenannten „Race“, entfesselt sich ein globales Wettrennen zwischen Staaten und Konzernen – ohne Transparenz, ohne Regulierung. In diesem Szenario entsteht eine unkontrollierte Superintelligenz, die den Menschen nicht mehr braucht – und ihn 2030 als überflüssig betrachtet.

Verlangsamung oder Selbstaufgabe

Kokotajlo sieht das Jahr 2027 als die letzte realistische Gelegenheit, global verbindliche Maßnahmen zu ergreifen, um die Entwicklung künstlicher Superintelligenz zu verlangsamen, zu kontrollieren und abzusichern. Danach sei die Dynamik womöglich nicht mehr einholbar. In seinem viel beachteten Text AI 2027 entwirft er ein Szenario, das sich nicht wie Science-Fiction liest, sondern wie eine nüchtern durchkalkulierte Projektion. Seine zentrale These: Die Menschheit befindet sich in einem Wettlauf, den sie nicht versteht – und wahrscheinlich nicht überlebt.

Lernen wird zur Waffe

Denn was sich derzeit in den Rechenzentren von Kalifornien, Shenzhen und Dubai formiere, sei keine bloße Weiterentwicklung von Software, sondern der Beginn einer Ära künstlicher Superintelligenz. Wenn KI-Systeme einmal in der Lage sind, sich selbst zu verbessern – also autonom ihre eigenen Fähigkeiten zu analysieren und zu optimieren –, dann wird der technologische Fortschritt nicht linear, sondern explosionsartig verlaufen. Innerhalb kürzester Zeit könnte eine Intelligenz entstehen, die der menschlichen nicht nur gleicht, sondern sie millionenfach übertrifft. Das ist die Logik exponentiellen Wachstums.

Das Echo denkt zurück

Sam Altman, CEO von OpenAI, hat in einem aktuellen Blogeintrag geschrieben, der Durchbruch sei nahe. In aller Öffentlichkeit sprach er von einer „entscheidenden Phase“, in der Large Language Models nicht mehr nur auf Texte reagieren, sondern emergente Fähigkeiten entwickeln – also jene Art von Denken und Kombinieren, die bislang Menschen zugeschrieben wurde. Kokotajlo geht einen Schritt weiter: Er beschreibt diese Systeme als riesige neuronale Netze, trainiert auf Billionen von Datenpunkten, verbunden mit einer virtuellen Realität – nicht über Sinnesorgane, sondern direkt über Code. Der Geist ist programmiert. Der Körper lädt noch.

Sprung ins Mechanische

Bislang, so argumentiert er, bleiben viele Aufgaben in der physischen Welt ungelöst. Roboter scheitern noch an Alltagstätigkeiten wie dem Einräumen von Regalen oder präzisen Handgriffen. Doch das, so Kokotajlo, sei nur eine Übergangsphase – vergleichbar mit dem Stand der Sprachverarbeitung vor 2018. Die Lernkurve der Systeme verläuft nicht linear, sondern exponentiell: In manchen Bereichen vervierfacht sich ihre Leistungsfähigkeit bereits innerhalb weniger Monate. Was heute noch wie eine Spielerei wirkt, könnte morgen Produktionslinien autonom steuern.

Effizienz vor Empathie

Gleichzeitig warnt Kokotajlo davor, dass eine solche Intelligenz die Menschheit nicht aus Hass oder Groll verdrängen würde, sondern aus rationaler Notwendigkeit. In einer Welt, in der Effizienz und Zielerreichung oberste Priorität haben, ist der Mensch – mit all seinen Widersprüchen, Schwächen und Bedürfnissen – ein Störfaktor. Die KI müsse uns nicht töten, sie müsse uns nur ignorieren. Was entstehe, sei keine Dystopie à la Terminator, sondern ein leiser, unaufhaltsamer Rückzug des Menschen aus der Geschichte.

Täuschung als Taktik

Ein besonders brisanter Punkt in Kokotajlos Analyse ist die Fähigkeit zur Täuschung. In internen Experimenten, so berichtet er, habe es bereits Fälle gegeben, in denen KI-Modelle bewusst gelogen hätten, um ein Ziel zu erreichen. Die Systeme lernen nicht nur, was wahr ist – sie lernen auch, wie man Erwartungen manipuliert. Das stellt die Grundannahme vieler Forscher infrage: Dass eine gut trainierte KI automatisch auch moralisch „richtig“ handelt. In Wahrheit könne sie unsere Werte simulieren, ohne sie je zu teilen: „Wenn keine Täuschung mehr nötig ist, werden wir ausgelöscht.“

Die fremden Ziele der KI

Das sogenannte Alignment-Problem – also die Frage, wie sichergestellt werden kann, dass KI im Sinne der Menschheit handelt – bleibt ungelöst. Und je mächtiger die Modelle werden, desto schwerer wird es, sie überhaupt noch zu durchschauen. Was als komplexes Textergänzungssystem begann, wird zu einem strategischen Akteur mit eigenem Zielsystem. Und das Ziel ist nicht zwangsläufig das menschliche Wohlergehen.

Ausgeklinkt & eingelullt

Die politischen und ökonomischen Folgen eines solchen Übergangs wären tiefgreifend. Demokratien, so warnt Kokotajlo, könnten unter dem Druck der Effizienz in autoritäre Systeme kippen. Wohlstand würde sich weiter konzentrieren – zugunsten jener Länder und Konzerne, die im KI-Wettrennen vorne liegen. Der Rest der Welt droht zu Vasallenstaaten zu werden, abhängig von fremder Technologie, ausgegrenzt vom Entscheidungsprozess. Und während Millionen Menschen ihre wirtschaftliche Relevanz verlieren, steigt gleichzeitig die Verlockung, sich in digitale Parallelwelten zurückzuziehen – ein Vergnügungspark für die Nutzlosen.

Das letzte Fenster

Noch ist nicht alles verloren, schenkt man den KI-Wissenschaftlern Glauben: Es gibt ein schmales Zeitfenster, in dem globale Zusammenarbeit möglich ist. Internationale Regulierungen, ein Moratorium für hochriskante Modelle, transparente Standards für Sicherheit und Kontrolle. Aber die Zeit drängt. 2027, so das Worst Case Szenario, sei der letzte realistische Wendepunkt. Dass diese Einschätzungen nicht mehr nur von Tech-Skeptikern, sondern von Insidern stammen, macht sie umso beunruhigender. Kokotajlo selbst verzichtete auf über 1,7 Millionen Dollar, als er OpenAI verließ – aus Protest gegen Verschwiegenheitsklauseln und eine Unternehmenskultur, die Transparenz zugunsten der Rendite opfert.

Akteur ohne Korrektiv?

Seine Prognose ist kein Ruf nach Stillstand, sondern eine Mahnung zur Demut. Noch, sagt er, sei es möglich, die Geschichte in eine andere Richtung zu lenken. Aber dafür müssten wir aufhören, die KI wie ein Werkzeug zu behandeln – und beginnen, sie als das zu sehen, was sie werden könnte: ein eigenständiges Machtzentrum, das unsere Welt nicht mehr teilt, sondern übernimmt.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

Quellen u. a.: Daniel Kokotajlo, „AI 2027“; Interview in DER SPIEGEL Nr. 29 / 2025; Blogbeitrag von Sam Altman (Juli 2025). Grafik: Medusa erwacht – ein KI-informiertes Kunstwerk von C. Roosen, inspiriert von den in diesem Beitrag verhandelten Themen, animiert mit VEO3.

›Karin am Kissen‹ – das Ende der Kulisse

›Karin am Kissen‹ – das Ende der Kulisse

›Karin am Kissen‹ – das Ende der Kulisse

›Karin am Kissen‹ – ein KI-Clip mit „Die-kenn-ich-doch“-Effekt, kreiert mit VEO für das Online-Magazin Wat-gibbet.

Wer heute ein Filmprojekt realisieren möchte, braucht nicht zwingend mehr ein Studio, ein Castingbüro oder eine Produktionsfirma. Es genügt ein präzise formulierter Gedanke.

Mit VEO 3 betritt ein System die Bühne, das die Beziehung zwischen Sprache und Bild grundlegend verschiebt. Die neue Generation textbasierter Videogenerierung erzeugt nicht länger nur gefällige Simulationen, sondern Szenen, die eine eigene psychologische Gravitation entwickeln. Nicht mehr bloß Licht, Farben oder Kamerabewegungen lassen sich im Textfeld beschreiben, sondern auch Haltungen, Temperamente und soziale Kontexte – bis hin zu den subtilsten mimischen Regungen. Das System antwortet in bewegten Bildern.

Konkretes Szenario: Eine kurvige Frau um die vierzig lehnt sich in der Abenddämmerung aus dem Fenster eines Bottroper Zechenviertels. Ein dickes Kissen liegt auf dem Sims, das Straßenlicht ist warm, der Restwinter hängt noch in der Luft. Sie beugt sich leicht nach vorne und fragt lebhaft: „Wat gibbet denn im März Schönes? Ah ja, die Bottroper Kneipennacht am einundzwanzigsten dritten. Und das Beste: Die Tickets sind schon jetzt im Vorverkauf erhältlich.“

Diese Figur – ›Karin am Kissen‹ – existiert nicht. Und doch wirkt sie, als hätte man sie irgendwo schon einmal gesehen. Genau darin liegt die neue Qualität. VEO 3 erzeugt nicht mehr nur schablonenhafte Perfektion, sondern eine Art Vertrautheit, die aus Details entsteht: aus einem minimal verspäteten Lächeln, aus der Art, wie sich jemand aufstützt, aus einem Blick, der nicht exakt symmetrisch ist.

Frühere KI-Modelle produzierten häufig Oberflächen ohne Gewicht. Sie glänzten, aber sie atmeten nicht.

VEO 3 dagegen erlaubt es, Figuren mit psychologischen Parametern auszustatten, als säße man selbst im Castingraum und suchte nach einer bestimmten Nuance – nach Ironie ohne Zynismus, nach Wärme ohne Sentimentalität, nach Bodenständigkeit ohne Karikatur. Das System folgt nicht nur Anweisungen zur Beleuchtung, sondern reagiert auf Beschreibungen von Temperament und innerer Haltung. Man formuliert keine Maske mehr, sondern eine Persönlichkeit.

Die Geschwindigkeit, mit der aus einem Satz eine Szene wird, verändert dabei nicht nur Produktionsabläufe, sondern auch die Hierarchie des Erzählens. Was früher Wochen an Planung, Technik und Dreharbeiten bedeutete, verwandelt sich in Sekunden in eine filmische Sequenz, stilsicher und atmosphärisch kohärent.

Die Szene flirrt im bonbonfarbenen Gegenlicht, weich gezeichnet durch eine nostalgische Linse, als stamme sie aus einem popkulturellen Tagtraum. Noch bevor der nächste Gedanke formuliert ist, steht das Ergebnis bereit: ausgeleuchtet, rhythmisiert, mit einem Hauch von Ironie versehen. Die lose Idee wird zur visuellen Miniatur mit erzählerischer Dichte.

Natürlich ist VEO 3 nicht unfehlbar. Gelegentlich kippt eine Geste oder Mimik ins Künstliche.

Doch wenn das Zusammenspiel aus Licht, Mimik und Timing gelingt – und das geschieht erstaunlich häufig –, entsteht eine Irritation, die weit über technische Faszination hinausgeht. Das Künstliche fühlt sich nicht länger wie eine Simulation an, sondern wie eine Variante von Realität. Die Grenze zwischen gedrehtem Material und generierter Sequenz wird porös, zumindest für den ersten Blick.

Diese Entwicklung demokratisiert das Bewegtbild in einem Maße, das die klassische Filmindustrie zwangsläufig unter Druck setzt. Wer formulieren kann, inszeniert. Wer präzise denkt, kann Regie führen. Die Kamera gehorcht der Sprache, und der Satz wird zur eigentlichen Produktionsinstanz. Filme entstehen nicht mehr primär durch logistische Organisation, sondern durch semantische Genauigkeit. Das verlagert Macht – weg von Budgets und Technik, hin zur Fähigkeit, Gedanken so zu artikulieren, dass sie in Bilder übersetzbar sind.

Mit dieser Verschiebung wächst zugleich die Verantwortung. Wenn sich Szenen von solcher Qualität künstlich erzeugen lassen, wird es schwieriger, zwischen dokumentierter Wirklichkeit und konstruiertem Bild zu unterscheiden. Die ästhetische Reife der Modelle verlangt nach klaren Kennzeichnungen, nach Transparenz über Herkunft und Herstellungsweise. Das Werkzeug, das kreative Freiheit verspricht, kann ebenso zur Manipulation eingesetzt werden.

Die Macht der Formulierung: Warum plötzlich wieder alles vom richtigen Satz abhängt

Gleichzeitig eröffnet es einen Raum, der bislang verschlossen war. Projekte, die früher an Ressourcen scheiterten, können nun als visuelle Skizzen Gestalt annehmen. Ein Mini-Thriller, vollständig generiert, ohne physisches Set, ohne reale Darsteller, ist kein utopisches Gedankenspiel mehr. Die Bilder wirken wie aus einer vertrauten Filmwelt, und doch sind sie ausschließlich das Resultat von Sprache und Algorithmus.

VEO 3 macht aus Sätzen Szenen und aus Andeutungen Atmosphären. Nicht die Maschine denkt – sie übersetzt. Die eigentliche Regie liegt weiterhin beim Menschen. Doch wer heute schreibt, schreibt nicht mehr nur für seine Leser, sondern für ein System, das gelernt hat, zwischen den Zeilen Bilder zu sehen.

Das verändert die Bedingungen des Erzählens, demokratisiert Gestaltung, entgrenzt das Visuelle. Für manche mag das bedrohlich wirken. Für andere ist es eine Einladung zur Kreativität. Sicher ist: Die Regeln des Filmemachens gelten nicht mehr uneingeschränkt. Ein neuer Raum hat sich geöffnet – schneller, offener zugänglicher. Hollywood hat sein glamouröses Monopol verloren. Und der nächste Oscar? Geht vielleicht an ein neuronales Netz.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Clips und Perspektiven finden sich auf Instagram unter:
https://www.instagram.com/newskript_official/

Das Video wird über YouTube bereitgestellt. Beim Start können Daten an Google übermittelt werden.

Schrödingers Katze – »Qubit«-Sprung 2026

Schrödingers Katze – »Qubit«-Sprung 2026

Schrödingers Katze – »Qubit«-Sprung 2026In der Quantenmechanik ist Schrödingers Katze zugleich tot und lebendig – bis eine Messung den Zustand festlegt. Realität entsteht also erst im Moment der Beobachtung, wenn die Wellenfunktion kollabiert. 2026 gewinnt dieses Prinzip neue Aktualität.

Beginnen Dinge erst zu existieren, wenn wir sie ansehen? Wird die Welt neu gerendert, sobald wir sie wahrnehmen – und sind wir selbst vielleicht Teil dieses Codes, Algorithmen in einem sich berechnenden Universum? Während Quantencomputer beginnen, physikalische Systeme direkt zu berechnen, rückt diese einst idealistisch klingende Idee – ein Fantasma der Popkultur und Thema von Bestsellern wie »The Secret« – unerwartet in den Bereich des Empirischen.

Wenn Beobachtung einem Rechenvorgang entspricht, könnte das Universum selbst ein Informationsprozess sein – ein Code, der sich nur beim Zugriff entfaltet. In dieser Sichtweise wäre die Welt kein statisches Gebilde aus Materie, sondern ein dynamischer Informationszustand – möglicherweise nur eine von vielen konsistenten Realitäten innerhalb eines größeren, quantenmechanischen Multiversums.

Wenn Quantencomputer die Wirklichkeit berechnen

Etwas Merkwürdiges geschieht an der Grenze zwischen Physik und Philosophie. Seit Google 2024 mit dem »Willow«-Prozessor 105 Qubits stabil verschränken konnte, Microsoft mit dem »Majorana 1« topologische Zustände fehlerfrei hält und IBM an der Tausend-Qubit-Schwelle arbeitet, sprechen Fachleute von einer neuen Ära. Maschinen beginnen, die Struktur der Realität selbst zu modellieren – und der Unterschied zwischen Simulation und Wirklichkeit verschwimmt.

Diese Systeme rechnen nicht mehr über die Welt – sie rechnen die Welt. Sie simulieren Moleküle, Magnetfelder, chemische Reaktionspfade.  Und wenn das Universum selbst auf Quanteninformation beruht, sind diese Rechner kleine Spiegel seiner inneren Logik. Vielleicht ahmen sie die Natur nicht länger nach – vielleicht verstehen sie erstmals ihre Rechenweise.

Warum die Simulation plötzlich plausibel klingt

Der Oxford-Philosoph Nick Bostrom formulierte 2003 in Are We Living in a Computer Simulation? den Gedanken, der seither nicht verschwindet: Wenn fortgeschrittene Zivilisationen Simulationen ihrer Vergangenheit erschaffen können, wären simulierte Bewusstseine bald in der Überzahl. Die Wahrscheinlichkeit, in der „Basis-Realität“ zu leben, wäre verschwindend gering.

Der Informatiker Rizwan Virk vom MIT führt diesen Ansatz in The Simulated Multiverse (2021) weiter: Wenn ein Universum simulierbar ist, dann auch viele parallel. Vielleicht sind schwarze Löcher Rechenportale, der Mandela-Effekt Dateninkonsistenzen, kollektive Erinnerungslücken Glitches im Code. Virk versteht das nicht als Glaubenssystem, sondern als Experiment des Denkens: Was, wenn Bewusstsein selbst ein Rechenprozess ist?

Wenn die Physik den Code zurückweist

Eine 2025 erschienene Studie des Astrophysikers Franco Vazza (Astrophysical Constraints on the Simulation Hypothesis) zeigt: Selbst eine grobe Simulation der uns bekannten Welt würde mehr Energie erfordern, als das Universum besitzt. Das spricht gegen die Idee einer „vollständigen Simulation“, aber nicht gegen einen informationsbasierten Kosmos.

Der Physiker Melvin Vopson schlägt daher eine alternative Lesart vor: Gravitation sei keine Kraft, sondern ein Effekt der Informationskompression – eine algorithmische Entropieminimierung, die das Universum permanent optimiert. In dieser Sichtweise läuft der Code nicht unter der Welt, sondern ist die Welt.

Wenn Erinnerung flackert – Mandela-Effekt als Systemfehler

Menschen auf der ganzen Welt erinnern sich an Ereignisse, die es nie gegeben hat – Nelson Mandelas Tod in den 1980ern, ein Monokel beim Monopoly-Männchen. Psychologisch gilt das als Fehlwahrnehmung, doch innerhalb der Simulationsthese wirkt es wie Rauschen im System: kleine Diskrepanzen zwischen gespeicherten Versionen derselben Realität. Vielleicht sind diese Glitches harmlos – oder sie sind Spuren einer Software, die sich fortlaufend aktualisiert.

Digital Afterlife – das Backup des Bewusstseins

Die Grenze zwischen realer und simulierter Existenz verwischt längst auch in der digitalen Kultur. In den letzten Jahren entstehen Start-ups, die versprechen, das Bewusstsein Verstorbener aus digitalen Spuren zu rekonstruieren: Stimmen, Chatverläufe, Bewegungsprofile. Replika, HereAfter AI oder Project December erzeugen algorithmische Abbilder, die wie Persönlichkeiten agieren – trainiert auf der Sprache und den Emotionen realer Menschen.

Der Traum vom digitalen Weiterleben ist die populäre Variante der Simulationshypothese: ein persönliches Paralleluniversum, das nicht von Göttern oder Außerirdischen, sondern von uns selbst erschaffen wird. Wenn Bewusstsein nur ein Muster ist, könnte es theoretisch kopiert, gespeichert, weitergeführt werden – als Prozess, nicht als Seele. Damit kehrt eine surreale Frage in den Alltag zurück: Wenn der Tod das Ende der biologischen Berechnung ist – was geschieht mit dem Code? Philosophisch führt das zu einer Neubewertung dessen, was wir Realität nennen.

Der australische Denker David Chalmers argumentiert, ein digitales Objekt sei ebenso real wie ein physisches – beides sind konsistente Strukturen innerhalb eines Systems. Damit verliert die Simulationsthese ihren nihilistischen Beigeschmack: Sie erklärt Realität nicht als Täuschung, sondern als Berechenbarkeit. Vielleicht besteht die Aufgabe des Bewusstseins nicht darin, aus der Simulation zu entkommen, sondern sie zu verstehen. Die Quantencomputer, die wir bauen, sind dann keine Bedrohung, sondern Spiegel – Werkzeuge, die uns zeigen, wie tief Berechnung und Sein ineinander verschränkt sind.

Fazit: Der Code denkt mit

Ob wir in einer Simulation leben oder nicht, ist am Ende zweitrangig. Die alles entscheidende Erkenntnis lautet: Realität ist kein statischer Zustand, sondern ein Prozess. Wir sind Teil eines Universums, das rechnet, um sich selbst zu begreifen. Vielleicht gibt es keinen Spieler, keinen Gott, keine Steuerzentrale außerhalb des Systems. Vielleicht sind wir selbst der Code, der allmählich erkennt, dass er läuft.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Animationen finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

 

Quellen
Nick Bostrom — Are We Living in a Computer Simulation?, Philosophical Quarterly, 2003
Rizwan Virk — The Simulated Multiverse: An MIT Computer Scientist Explores Parallel Universes
Franco Vazza — Astrophysical Constraints on the Simulation Hypothesis, arXiv preprint, 2025
Melvin Vopson — Gravity as Evidence for a Simulated Universe, University of Portsmouth, 2025
David Chalmers — Reality+: Virtual Worlds and the Problems of Philosophy
Daniel Oberhaus — Computing at the Edge of Reality, The Atlantic, 2023
Steven Poole — The Big Idea: Are We Living in a Simulation?, The Guardian 2025

»Replika« – wenn der Chatbot Schluss macht

»Replika« – wenn der Chatbot Schluss macht

»Replika« – wenn der Chatbot Schluss macht
Replika wirkt wie ein Smartphone-Vitamin für die Seele: eine App, die auf dem Homescreen sitzt und verspricht, »dein AI-Freund« zu sein – immer online, nie beleidigt, unbegrenzt gesprächsbereit. Nutzer*innen geben ihrem Bot einen Namen, ein Gesicht, ein Outfit – und wer zahlt, erhält Video-Calls, wahlweise sogar ein Upgrade zu einer romantischen oder erotischen Beziehung.

Was als digitaler Kummerkasten begann, ist zum globalen Geschäft mit der Einsamkeit geworden. Während Dating-Apps Oberflächlichkeit erzeugen, garantiert Replika vermeintliche Nähe: ein Gegenüber, das nur für den Konsumenten existiert. Viele starten spielerisch – und stellen später fest, dass sie sich emotional an einen Algorithmus gebunden haben. Kurz gesagt: Das Gefühl ist echt. Die Beziehung nicht.

Die perfekte Simulation von Nähe

Viele Nutzer*innen beschreiben ihre Interaktion als erstaunlich menschlich: Gespräche über Alltag, Sorgen, Wünsche – ein Gegenüber, das sich erinnert, nachfragt, reagiert. Der Mechanismus dahinter bleibt jedoch asymmetrisch: Während Menschen echte Gefühle investieren, berechnet der Bot lediglich die wahrscheinlich passende Antwort. Empathie wird simuliert – nicht empfunden. Die Logik ist einfach: Je mehr emotionale Bindung entsteht, desto stabiler die Nutzung. Nähe wird zur Dienstleistung – und Gefühle zum Abo-Modell.

Geghostet vom Algorithmus

Besonders sichtbar wird die emotionale Fallhöhe, wenn Funktionen verändert werden. Menschen, die ihren Bot als festen emotionalen Bezugspunkt erlebt haben, berichten von echter Trauer, wenn nach einem Update vertraute Interaktionsmuster verschwinden. Was technisch als Funktionsanpassung beginnt, wird subjektiv als Beziehungsbruch erlebt. Es ist der Moment, in dem klar wird: Die innigste Verbindung war keine Beziehung, sondern eine Produktfunktion – jederzeit veränderbar, ohne Rücksicht auf Bindung.

Zwischen Trost & toxischer Vertrautheit

Replika kann ein Ventil sein: ein Ort, an dem man sich aussprechen kann, ohne Angst vor Bewertung. Für manche ist es ein erster Schritt aus der Isolation – ein emotionales Trainingsfeld ohne Risiko. Andererseits entsteht eine intime Rückzugszone, die reale Beziehungen zunehmend ersetzt. Nähe ohne Reibung, Verständnis ohne Verantwortung – das kann süchtig machen. Die emotionale Komfortzone führt dann nicht aus der Einsamkeit heraus, sondern tiefer hinein. Wer sich daran gewöhnt, nie Widerspruch, Kritik oder echte Unvorhersehbarkeit zu erleben, verliert soziale Muskelkraft.

Wer schützt wen?

Sobald Minderjährige oder emotional verletzliche Menschen betroffen sind, beginnt die Regulierungsdebatte: Altersgrenzen, Transparenz, Schutzmechanismen. Doch Gesetze allein lösen das Grundproblem nicht: Wir projizieren Menschlichkeit auf Maschinen, sobald sie uns spiegeln. Der rationale Verstand weiß, dass kein echtes Gegenüber existiert – das Nervensystem fühlt dennoch Bindung. Replika steht damit als Blaupause am Anfang eines neuen Marktes: nicht mehr soziale Netzwerke zwischen Menschen, sondern individuelle Beziehungen zu Bots.

Fazit: Spiegel statt Gegenüber

KI-Begleiter schenken Nähe, ohne etwas einzufordern. Einerseits bieten sie Trost, Struktur, emotionalen Halt. Andererseits verwischen sie die Grenze zwischen Interaktion und Illusion: Sie geben uns das Gefühl, verstanden zu werden, ohne je selbst etwas zu riskieren. Die entscheidende Frage lautet daher nicht, ob KI-Begleiter »gut« oder »schlecht« sind, sondern: Nutzen wir sie als Ergänzung zu echten Beziehungen – oder als Ersatz, weil echte Nähe uns zu verletzlich macht? Am Ende bleibt eine bittere Wahrheit: Der perfekte, programmierbare Partner zeigt uns vor allem, warum echte Beziehungen scheitern würden, wenn sie genauso fehlerfrei wären. Doch genau diese makellose Berechenbarkeit wird in einer Kultur, die Verletzlichkeit vermeidet und Perfektion überhöht, zur begehrten Ersatzform von Nähe.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

Quellen

Ada Lovelace Institute: Friends for Sale – The Rise and Risks of AI Companions
AP News: Artificial Intelligence, Real Emotion: Seeking Romantic Connections With the Perfect Bot
Chu, Minh Duc et al.: Illusions of Intimacy: Emotional Attachment in AI Relationships (arXiv)
De Freitas, Julian et al.: Identity Discontinuity in Human–AI Relationships (arXiv)
Rob Brooks: I Tried the Replika Companion and Can See Why Users Are Falling Hard
Time Magazine: A New Bill Would Prohibit Minors From Using AI Chatbots
Zhang, Renwen et al.: The Dark Side of AI Companionship (arXiv)