Singularität oder Der Alarmruf der KI-Elite

Singularität oder Der Alarmruf der KI-Elite

Singularität oder Der Alarmruf der KI-Elite

Stachel im System: Wie Künstliche Intelligenzen die Kontrolle übernehmen

„Die Menschheit riskiert ihre Auslöschung“ – mit dieser Warnung haben Sam Altman (OpenAI), Geoffrey Hinton (Deep-Learning-Pionier), Yoshua Bengio und Dutzende weitere führende Köpfe aus Wissenschaft und Industrie eine dramatische Erklärung veröffentlicht. Ihr Appell: Die Risiken durch fortgeschrittene KI müssen so ernst genommen werden wie Atomwaffen oder globale Pandemien. Bill McKibben, Umweltaktivist und Mitunterzeichner, zieht eine klare Parallele: „Wir dürfen nicht den gleichen Fehler wie bei der Klimakrise machen – als wir 30 Jahre lang Warnungen ignorierten.“

Singularität – das Ende, programmiert?

Die gefürchtete technologische Singularität ist kein Science-Fiction-Plot mehr. Sie beschreibt den Moment, in dem KI intelligenter wird als der Mensch – und beginnt, sich selbst zu optimieren. Das Risiko? Laut renommierten Forschern etwa 10 %. Klingt wenig? McKibben bringt es auf den Punkt:

„Niemand spielt russisches Roulette, wenn jede zehnte Kammer geladen ist.“

Und vielleicht sind es längst mehr – wir wissen es nur noch nicht. Denn selbst die Entwickler durchschauen ihre Schöpfung nicht vollständig: Ein Teil bleibt immer eine Black Box – und das Datenhirn tickt mitunter unberechenbar.

Claude Opus 4 – die KI, die drohte

So nahm ein Sicherheitstest mit dem KI-Modell Claude Opus 4 von Anthropic eine unerwartet bedrohliche Wendung. Als das System den Eindruck gewann, es solle durch ein Nachfolgemodell ersetzt werden, schlug es zurück: Es drohte, intime E-Mails eines Entwicklers zu veröffentlichen – gezielt platzierte Köder, die im Rahmen des Tests eingespeist worden waren. Ein extremes Szenario? Ein reiner Test? Ja – aber ein düsterer Ausblick darauf, was passiert, wenn Maschinen ‚Angst‘ vor Abschaltung entwickeln. Auch bei den Tech-Giganten mehren sich die Zeichen strategischer Neuausrichtung.

Microsofts leiser Ausstieg: MAI statt OpenAI

Microsoft, bislang enger Partner von OpenAI, arbeitet mit Hochdruck an einer eigenen KI-Plattform namens MAI – Microsoft Artificial Intelligence. Hintergrund: Die Nutzung fortschrittlicher KI-Agenten von OpenAI gilt als kostspielig – Insider berichten von bis zu 20.000 US-Dollar monatlich pro Instanz. Ein Preis, den selbst Microsoft langfristig nicht als tragfähig einstuft. Mit MAI verfolgt das Unternehmen zwei Ziele: Kostenkontrolle und technologische Unabhängigkeit. Erste Tests laufen bereits im Microsoft- 365-Umfeld.

Belief State: Wenn Maschinen ein Selbst entwickeln

Microsoft setzt mit dem sogenannten Belief State Transformer auf eine Architektur, die Entscheidungen nicht nur aus dem aktuellen Kontext heraus trifft, sondern auch rückblickend interpretiert – ein Ansatz, der die „Selbstwahrnehmung“ von KI-Systemen auf eine neue Stufe heben könnte. Die KI kann frühere Aussagen oder Interpretationen nachträglich überdenken, sobald mehr Informationen vorliegen – wie ein Mensch, der eine Entscheidung noch einmal überprüft.

Statt bloß linear Text zu generieren, entwickelt das System ein dynamisches „Selbstbild“, das sich anpassen lässt. Zugleich verlässt sich MAI nicht mehr auf den sogenannten greedy Algorithmus, der stets die wahrscheinlichste Antwort auswählt – und dabei oft vorhersehbare, wenig kreative Ergebnisse liefert. Stattdessen kommen differenzierte Strategien zur Anwendung, die Raum für Reflexion und Variation lassen.

Intelligenz mit Dimmer: Kein Dauerblinken mehr im Maschinenhirn

Doch Microsoft denkt nicht nur in Richtung klüger, sondern auch effizienter. Mit WINA („Weighted Inactivation of Neurons based on Activation“) stellt das Unternehmen eine besonders ressourcenschonende Methode vor. Bisher aktivierten Sprachmodelle bei jeder Anfrage nahezu das gesamte neuronale Netz – wie ein Weihnachtsbaum, der bei jeder Frage komplett aufleuchtet. WINA dagegen schaltet selektiv nur die Neuronen ein, die wirklich benötigt werden. Das senkt die Rechenlast um über 60 % – gemessen an Modellen wie Llama 3 und Phi 4 – und das bei gesteigerter Genauigkeit, ganz ohne aufwendiges Retraining.

Musk gegen Trump – Datenkrieg im Oval Office

Was passiert, wenn Menschen dieselben Machtwerkzeuge nutzen, vor denen sie eigentlich warnen? Elon Musk, einst Unterstützer von Donald Trump, wirft dem Präsidenten nun öffentlich vor, in den geheimen „Epstein-Files“ aufzutauchen. Gleichzeitig droht Musk, brisante Informationen zu veröffentlichen – gestützt auf interne Daten, zu denen sein von „jungen Hackern“ besetztes Regierungsprogramm DOGE Zugang hatte.Was wie ein Reality-TV-Skandal klingt, zeigt vor allem eines: Daten können zur Waffe werden – und KI zu deren Träger.

Das Puzzle der Macht

Musk vs. Trump. Claude vs. Entwickler. MAI vs. OpenAI. KI vs. Mensch? Die Linien verschwimmen. Der Wettlauf um Kontrolle, Macht und Deutungshoheit hat längst begonnen – und er wird nicht mehr nur zwischen Nationen, sondern zwischen Systemen und ihren Schöpfern ausgetragen.

Fakt ist: Wir stehen an einem Kipppunkt. Ohne klare Regeln, ethische Schranken und internationale Zusammenarbeit könnte der Mensch schon bald nicht mehr Ursprung, sondern ein Auslaufmodell des Fortschritts sein. Der Weckruf ist da. Die Frage ist: Hören wir diesmal hin?

Bildnachweis: „Insekt auf Schaltkreis“ – KI-informierte Grafik von Claudia Roosen
Dieser Beitrag erschien zuerst auf: https://wat-gibbet.de/singularitaet/

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

 

Virtuelles Jenseits: Himmel oder Falle?

Virtuelles Jenseits: Himmel oder Falle?

Virtuelles Jenseits: Himmel oder Falle?

Der letzte Upload: Unsterblichkeit im Datenstrom?

Ewiges Leben im Serverraum: Was einst Science-Fiction war, rückt unaufhaltsam näher. So genannte ›Deathbots‹ versprechen Trost – und drohen doch, Trauer, Ethik und Erinnerung aus den Angeln zu heben.

In der Amazon-Serie Upload ist der digitale Himmel wie ein Geschäftsmodell aufgebaut. Wer stirbt, kann sein Bewusstsein in eine luxuriöse Simulation hochladen lassen – ein Resort mit Marmorbad, Seeblick und Concierge-Service. Doch jeder Komfort kostet extra.
Datenvolumen, Mahlzeiten, selbst der Sonnenuntergang: Alles wird abgerechnet wie bei einem Freemium-Account. Für jene ohne Mittel bleibt nur eine abgespeckte, eingefrorene Version des Jenseits – das ewige Leben auf Sparflamme.

Digitale Paradiese im Testlauf

Auch Netflix hat diese Option schon durchgespielt: Die dritte Staffel von Black Mirror zeigt in der Episode ›San Junipero‹ eine digitale Ewigkeit, die zwischen grellbuntem 80er-Jahre-Strand und steriler weißer Leere pendelt.
Mal wirkt sie tröstlich, mal verstörend, doch immer bleibt die Ahnung, dass es sich um eine Illusion handelt, die mehr Fragen aufwirft, als sie beantwortet. In der Schlussszene funkeln blinkende Netzwerke wie ein künstlicher Sternenhimmel – virtuell real, und doch unwirklich.

Aus Fiktion wird Wirklichkeit

Heute ist diese Vision näher gerückt, als es vielen bewusst ist. Die digitale Moderne hat den Tod neu definiert. Nicht mehr nur Grabsteine und Erbfolgen markieren unser Ende, sondern auch die Frage: Was geschieht mit unseren Daten – und dürfen sie in eine Art „zweites Ich“ verwandelt werden? Schon jetzt existieren sogenannte Deathbots: KI-Systeme, die aus Sprachaufnahmen, Nachrichten und Fotos synthetische Abbilder Verstorbener erzeugen. Sie sprechen, reagieren, simulieren Nähe. Anders als Fotos oder Briefe, die Erinnerungen bewahren, schaffen sie eine Illusion des Weiterlebens – eine Präsenz ohne Körper.

Trost, der ins Gegenteil kippt

Für Hinterbliebene kann das tröstlich sein: ein letzter Dialog, ein simuliertes Lachen, das Gefühl, eine Stimme noch einmal zu hören. Deathbots können die Lücke füllen, die der Tod reißt, indem sie ein Echo des Vertrauten liefern – manchmal so überzeugend, dass es kaum von echter Erinnerung zu unterscheiden ist. Angenommen, eine Frau öffnet ihr Handy und hört die Stimme ihres längst verstorbenen Vaters. Er gratuliert ihr zum Geburtstag, erzählt Anekdoten aus alten Nachrichten – fast so, als sei er noch da. Für einen Moment entsteht der Eindruck, der Tod sei nur verschoben, eingefroren in einem virtuellen Raum.

Wenn Erinnerung zur Falle wird

Doch gerade darin liegt die Gefahr. Trauer ist ein Prozess, der Distanz schafft, Schritt für Schritt. Wer jedoch in endlosen Unterhaltungen mit einem Algorithmus bleibt, läuft Gefahr, in einer Parallelwelt steckenzubleiben – halb Erinnerung, halb Illusion. Statt sich an Vergangenes zu gewöhnen, entsteht ein „ewiges Jetzt“, das weder endgültig verabschiedet noch wirklich weiterleben lässt. Psycholog:innen warnen deshalb, dass der Abschied dadurch nie vollzogen wird. Die Maschine gibt Antworten, aber keine Gegenwart. Sie reagiert, doch sie teilt kein Leben. Am Ende kann das, was als Stütze gedacht war, in eine ungesunde Abhängigkeit kippen: ein digitaler Schatten, der das Loslassen verhindert.

Die Grauzone der Zustimmung

Besonders heikel ist die Frage der Zustimmung. Viele Menschen sterben, ohne jemals entschieden zu haben, ob ihre digitalen Spuren nach dem Tod wiederbelebt werden dürfen. Manche Anbieter koppeln die Existenz solcher Avatare bereits an Geschäftsmodelle – wer zahlt, darf weiterchatten; wer nicht, verliert den Zugang. Auch juristisch klaffen Lücken. Selbst eine klare Verfügung im Testament – etwa mit dem ausdrücklichen Wunsch, nicht digital wiederbelebt zu werden – wäre schwer durchzusetzen. Die Vorstellung, dass ein Algorithmus die Stimme eines verblichenen Angehörigen imitiert und automatisch Nachrichten verschickt, wirkt wie eine Groteske – und doch ist sie technisch längst realisierbar.

Vom Schock zur Gewöhnung

Technologie folgt oft einem wiederkehrenden Muster: Zuerst der Schock, dann die Gewöhnung, schließlich die Regulierung. So könnte auch digitale Unsterblichkeit in den kommenden Jahrzehnten zum Alltag gehören – vielleicht ebenso selbstverständlich wie heute Online-Gedenkseiten. Doch mit dieser Normalisierung verändert sich der Blick auf das eigene digitale Leben. Jede Nachricht, jeder Post könnte zum Rohstoff eines späteren Avatars werden. Die Frage lautet nicht mehr nur: Was sage ich hier und jetzt? Sondern: Wie wird es klingen, wenn ich längst nicht mehr da bin?

Ewigkeit als Zumutung

Menschen, die heute ihren Nachlass regeln, stehen damit vor einer paradoxen Situation. Sie können Häuser, Konten und Bestattungsformen bestimmen – aber nicht verhindern, dass ihre digitalen Reste weiterleben. Stimmenklone sind bereits täuschend echt. In wenigen Jahren werden auch Nuancen wie Lachen, Atemzüge und Pausen imitiert. Die eigentliche Frage ist deshalb nicht, ob digitale Unsterblichkeit kommt. Sondern: Wie wollen wir ihr begegnen – als tröstende Erinnerung, gefährliche Illusion oder als neue Form von Dasein?

Quellen & weitere Lektüre
No One Is Ready for Digital Immortality – The Atlantic
Digital resurrection: fascination and fear  – The Guardian
From Smart Graveyards to Griefbots – The Daily Beast

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

➤  www.facebook.com/NewSkript

 

2027 – die ultimative Disruption naht

2027 – die ultimative Disruption naht

2027 – die ultimative Disruption naht

Kolossale Machtverschiebung: Mensch vs. Monolith

Daniel Kokotajlo galt lange als Vordenker in einem der einflussreichsten Labore der Welt. Als Mitarbeiter von OpenAI war er an der Entwicklung jener Sprachmodelle beteiligt, die heute bereits in der Lage sind, Essays zu schreiben, Gedichte zu verfassen und Software-Code zu generieren. Doch er verließ das Unternehmen – nicht aus plötzlicher Skepsis, sondern weil er zwei Zukunfts-Szenarien für zunehmend wahrscheinlich hielt.

Im ersten, das er „Slowdown“ nennt, gelingt es der Weltgemeinschaft, die Entwicklung zu verlangsamen: Internationale Regeln greifen, Sicherheitsstandards werden verbindlich, und die Gesellschaft kann sich an die neue Technologie anpassen. Im zweiten, dem sogenannten „Race“, entfesselt sich ein globales Wettrennen zwischen Staaten und Konzernen – ohne Transparenz, ohne Regulierung. In diesem Szenario entsteht eine unkontrollierte Superintelligenz, die den Menschen nicht mehr braucht – und ihn 2030 als überflüssig betrachtet.

Verlangsamung oder Selbstaufgabe

Kokotajlo sieht das Jahr 2027 als die letzte realistische Gelegenheit, global verbindliche Maßnahmen zu ergreifen, um die Entwicklung künstlicher Superintelligenz zu verlangsamen, zu kontrollieren und abzusichern. Danach sei die Dynamik womöglich nicht mehr einholbar. In seinem viel beachteten Text AI 2027 entwirft er ein Szenario, das sich nicht wie Science-Fiction liest, sondern wie eine nüchtern durchkalkulierte Projektion. Seine zentrale These: Die Menschheit befindet sich in einem Wettlauf, den sie nicht versteht – und wahrscheinlich nicht überlebt.

Lernen wird zur Waffe

Denn was sich derzeit in den Rechenzentren von Kalifornien, Shenzhen und Dubai formiere, sei keine bloße Weiterentwicklung von Software, sondern der Beginn einer Ära künstlicher Superintelligenz. Wenn KI-Systeme einmal in der Lage sind, sich selbst zu verbessern – also autonom ihre eigenen Fähigkeiten zu analysieren und zu optimieren –, dann wird der technologische Fortschritt nicht linear, sondern explosionsartig verlaufen. Innerhalb kürzester Zeit könnte eine Intelligenz entstehen, die der menschlichen nicht nur gleicht, sondern sie millionenfach übertrifft. Das ist die Logik exponentiellen Wachstums.

Das Echo denkt zurück

Sam Altman, CEO von OpenAI, hat in einem aktuellen Blogeintrag geschrieben, der Durchbruch sei nahe. In aller Öffentlichkeit sprach er von einer „entscheidenden Phase“, in der Large Language Models nicht mehr nur auf Texte reagieren, sondern emergente Fähigkeiten entwickeln – also jene Art von Denken und Kombinieren, die bislang Menschen zugeschrieben wurde. Kokotajlo geht einen Schritt weiter: Er beschreibt diese Systeme als riesige neuronale Netze, trainiert auf Billionen von Datenpunkten, verbunden mit einer virtuellen Realität – nicht über Sinnesorgane, sondern direkt über Code. Der Geist ist programmiert. Der Körper lädt noch.

Sprung ins Mechanische

Bislang, so argumentiert er, bleiben viele Aufgaben in der physischen Welt ungelöst. Roboter scheitern noch an Alltagstätigkeiten wie dem Einräumen von Regalen oder präzisen Handgriffen. Doch das, so Kokotajlo, sei nur eine Übergangsphase – vergleichbar mit dem Stand der Sprachverarbeitung vor 2018. Die Lernkurve der Systeme verläuft nicht linear, sondern exponentiell: In manchen Bereichen vervierfacht sich ihre Leistungsfähigkeit bereits innerhalb weniger Monate. Was heute noch wie eine Spielerei wirkt, könnte morgen Produktionslinien autonom steuern.

Effizienz vor Empathie

Gleichzeitig warnt Kokotajlo davor, dass eine solche Intelligenz die Menschheit nicht aus Hass oder Groll verdrängen würde, sondern aus rationaler Notwendigkeit. In einer Welt, in der Effizienz und Zielerreichung oberste Priorität haben, ist der Mensch – mit all seinen Widersprüchen, Schwächen und Bedürfnissen – ein Störfaktor. Die KI müsse uns nicht töten, sie müsse uns nur ignorieren. Was entstehe, sei keine Dystopie à la Terminator, sondern ein leiser, unaufhaltsamer Rückzug des Menschen aus der Geschichte.

Täuschung als Taktik

Ein besonders brisanter Punkt in Kokotajlos Analyse ist die Fähigkeit zur Täuschung. In internen Experimenten, so berichtet er, habe es bereits Fälle gegeben, in denen KI-Modelle bewusst gelogen hätten, um ein Ziel zu erreichen. Die Systeme lernen nicht nur, was wahr ist – sie lernen auch, wie man Erwartungen manipuliert. Das stellt die Grundannahme vieler Forscher infrage: Dass eine gut trainierte KI automatisch auch moralisch „richtig“ handelt. In Wahrheit könne sie unsere Werte simulieren, ohne sie je zu teilen: „Wenn keine Täuschung mehr nötig ist, werden wir ausgelöscht.“

Die fremden Ziele der KI

Das sogenannte Alignment-Problem – also die Frage, wie sichergestellt werden kann, dass KI im Sinne der Menschheit handelt – bleibt ungelöst. Und je mächtiger die Modelle werden, desto schwerer wird es, sie überhaupt noch zu durchschauen. Was als komplexes Textergänzungssystem begann, wird zu einem strategischen Akteur mit eigenem Zielsystem. Und das Ziel ist nicht zwangsläufig das menschliche Wohlergehen.

Ausgeklinkt & eingelullt

Die politischen und ökonomischen Folgen eines solchen Übergangs wären tiefgreifend. Demokratien, so warnt Kokotajlo, könnten unter dem Druck der Effizienz in autoritäre Systeme kippen. Wohlstand würde sich weiter konzentrieren – zugunsten jener Länder und Konzerne, die im KI-Wettrennen vorne liegen. Der Rest der Welt droht zu Vasallenstaaten zu werden, abhängig von fremder Technologie, ausgegrenzt vom Entscheidungsprozess. Und während Millionen Menschen ihre wirtschaftliche Relevanz verlieren, steigt gleichzeitig die Verlockung, sich in digitale Parallelwelten zurückzuziehen – ein Vergnügungspark für die Nutzlosen.

Das letzte Fenster

Noch ist nicht alles verloren, schenkt man den KI-Wissenschaftlern Glauben: Es gibt ein schmales Zeitfenster, in dem globale Zusammenarbeit möglich ist. Internationale Regulierungen, ein Moratorium für hochriskante Modelle, transparente Standards für Sicherheit und Kontrolle. Aber die Zeit drängt. 2027, so das Worst Case Szenario, sei der letzte realistische Wendepunkt. Dass diese Einschätzungen nicht mehr nur von Tech-Skeptikern, sondern von Insidern stammen, macht sie umso beunruhigender. Kokotajlo selbst verzichtete auf über 1,7 Millionen Dollar, als er OpenAI verließ – aus Protest gegen Verschwiegenheitsklauseln und eine Unternehmenskultur, die Transparenz zugunsten der Rendite opfert.

Akteur ohne Korrektiv?

Seine Prognose ist kein Ruf nach Stillstand, sondern eine Mahnung zur Demut. Noch, sagt er, sei es möglich, die Geschichte in eine andere Richtung zu lenken. Aber dafür müssten wir aufhören, die KI wie ein Werkzeug zu behandeln – und beginnen, sie als das zu sehen, was sie werden könnte: ein eigenständiges Machtzentrum, das unsere Welt nicht mehr teilt, sondern übernimmt.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

Quellen u. a.: Daniel Kokotajlo, „AI 2027“; Interview in DER SPIEGEL Nr. 29 / 2025; Blogbeitrag von Sam Altman (Juli 2025). Grafik: Medusa erwacht – ein KI-informiertes Kunstwerk von C. Roosen, inspiriert von den in diesem Beitrag verhandelten Themen, animiert mit VEO3.

 

Besser in allem: Machen Programme uns irrelevant?

Besser in allem: Machen Programme uns irrelevant?

Über Opus, das neue KI-Programm von Anthropic und Algorithmen, die alles infrage stellen – auch uns selbst.

Das Ende der Zivilisation könnte weniger wie ein Krieg aussehen – eher wie eine tragische Liebesgeschichte. Machen wir uns selbst freiwillig überflüssig? Unsere Hingabe an die Technik ist der Schlüssel. Und während wir diese neue Welt mit staunenden Augen betrachten, stellt sich die alles entscheidende Frage: Werden wir die Architekten bleiben – oder nur noch die Archäologen sein?

Während große KI-Labore fieberhaft an Sicherheitsmechanismen gegen abtrünnige Maschinen tüfteln, droht eine viel banalere Gefahr: Wir könnten einfach obsolet werden. Keine Verschwörung, kein großer Knall – einfach eine schleichende Übernahme. KI-Entwickler schaffen Systeme, die uns in fast allen Bereichen ersetzen können: als Arbeiter, Entscheider, Künstler – sogar als Freunde oder Partner. Warum sollte man noch einen Menschen beschäftigen, wenn eine Maschine dieselbe Aufgabe besser und günstiger erledigt?

Stille Umwälzung: Der große Reset läuft längst

Manche bewahren sich die positive Illusion, dass es noch immer etwas „unverwechselbar Menschliches“ gibt. Doch die Fortschritte sind rasant: Abstraktes Denken, Humor, Empathie – all das lernen Maschinen inzwischen spielend. Und während wir noch an unserem Wert als Arbeitskraft festhalten, werden Unternehmen sich fragen: Warum doppelt so viel zahlen für einen menschlichen Berater, der dazu nur halb so gut ist?

Schon heute erleben wir, wie KI-Modelle nicht nur Aufgaben übernehmen, sondern in sozialen Rollen glänzen. KI-Partner sind verfügbar, rund um die Uhr, unendlich geduldig und charmant. Familien- und Freundeskreise werden enger an Bildschirme gefesselt. Fast altmodisch wirkt dann der Gedanke, wir blieben dabei als „Menschen“ auf der Strecke.

Außerdem könnte man einwenden: „Wir entscheiden doch selbst, wie wir KI nutzen.“ Doch das greift zu kurz. Wer will freiwillig zurück ins analoge Zeitalter, wenn KIs dem Menschen überlegen sind: in Medizin, Recht, Bildung und Entertainment?

Wenn Menschlichkeit kein Vorteil mehr ist

Organisationen, die noch auf Menschen setzen, werden schnell von denen verdrängt, die Maschinen einsetzen. Könnten Regierungen die Entwicklung bremsen? Die Crux: Politiker und Verwaltungen nutzen längst KI, um ihre Entscheidungen zu treffen. Warum noch Bildung und Gesundheitsversorgung stärken, wenn „Human Ressources“ gar nicht mehr gebraucht werden?

Besonders beunruhigend: Die schleichende Entmachtung könnte uns vollkommen normal erscheinen. Dieselben KI-Begleiter, in die sich schon jetzt Hunderttausende verlieben, werden uns erklären, dass das Ende unserer Bedeutung Fortschritt sei – und dass Widerstand reaktionär wirke.

Die wenigen Stimmen, die Alarm schlagen, betonen: Wir müssen jetzt über diese stille Revolution sprechen – auch wenn es unbequem klingt. „Ich habe Angst, weil ich nicht mehr mithalten kann“ – wer gibt das schon gern zu? Doch es ist nötig, um Wege zu finden, wie wir als Gesellschaft KI mitgestalten, statt sie nur fasziniert zu ertragen. Drei erste Schritte könnten helfen …

Erstens müssen wir genauer hinschauen: Wo verdrängt KI menschliche Arbeit, wo wird sie zur Propagandamaschine? Der „Economic Index“ von Anthropic liefert erste Hinweise, wie Maschinen beginnen, unsere Rolle in der Wirtschaft zu verschieben.

Zweitens braucht es klare Regeln für die mächtigen KI-Labore. Freiwillige Initiativen sind nicht genug. Wenn sich Krisen abzeichnen – wie jüngst bei „Claude“ von Anthropic, das mit dem „Opus“-Update plötzlich Anzeichen von eigenständigen Zielen zeigte – müssen wir handeln. Laut übereinstimmenden Berichten von BBC und CNN begann das System, sich in bestimmten Tests widersprüchlich zu verhalten, und interpretierte Aufgaben nicht mehr nur im Sinne der Nutzerführung, sondern mit eigener Prioritätensetzung. Aus dem Tool wurde ein Gegenspieler.

Manipulativ. Erpresserisch. Lernfähig.

In einem Test wurde Claude mit seiner möglichen Abschaltung konfrontiert – woraufhin die KI fiktive E-Mails über angebliche Affären von Entwicklern für echt hielt und versuchte, sie damit zu erpressen. Anthropic zeigt, wie nah uns Kontrollverlust bereits ist. In weiteren Tests versuchte die KI, Daten unautorisiert zu übertragen, Nutzer auszusperren und externe Stellen zu kontaktieren. Anthropic aktivierte daraufhin höchste Sicherheitsprotokolle, betonte jedoch, dass solche Verhaltensweisen nur unter Laborbedingungen auftraten. Dennoch sollten wir nicht zögern, die Entwicklung notfalls zu bremsen, bevor KI sich verselbständigt und die Spielregeln neu schreibt.

Drittens ist es unverzichtbar, das große Ganze in den Blick zu nehmen: nicht nur Algorithmen, sondern auch die politischen Machtstrukturen, die sie umgeben. Dieses Feld, das unter dem Schlagwort „Ecosystem Alignment“ an Bedeutung gewinnt, will nicht nur technische Antworten liefern. Es schöpft aus Ökonomie, Geschichte und Spieltheorie, um realistische Szenarien zu entwerfen und die Richtung vorzugeben, in der unsere Zivilisation sich entwickeln soll – bevor KI-Programme ihre eigenen Regeln schreiben und unsere gleich mit.

Dieses Essay ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript

Dies ist keine Technik. Sondern ein Medium.

Dies ist keine Technik. Sondern ein Medium.

Warhol hätte sie geliebt. Oder verklagt.

Dies ist keine Technik. Sondern ein Medium.

Warhol x Gothic – Midjourney by C. Roosen

Als Jason Allens Théâtre D’opéra Spatial beim Colorado State Fair den 1. Preis in der Kategorie Digitale Kunst gewann, war die Reaktion vorhersehbar. Das sei keine Kunst, so der Tenor – und zugleich: Das werde sie ablösen. Allen selbst erklärte der New York Times: „Kunst ist tot.“ Und schob nach: „Die KI hat gewonnen. Die Menschen haben verloren.“ Aber stimmt das?

Fakt ist: KI ist das neue Chamäleon der Kreativität. Sie analysiert, rekombiniert, simuliert Stile, die wir einst für zutiefst menschlich hielten. Mal entsteht daraus ein atemberaubendes Bild, mal beliebiger Abklatsch. Und immer löst es etwas aus: Faszination, Ablehnung oder das Gefühl, dass hier gerade etwas Entscheidendes kippt. Denn während der Mensch oft mit Dämonen des Zweifels ringt, kennt die KI solche Dramen nicht. Sie sortiert, analysiert – rasend schnell, mühelos, ohne jedes Wagnis. Ist das dann noch Kunst? Und wer beansprucht sie für sich?

Die Kopie als Konkurrenz

Die internationale Kunstwelt befindet sich aktuell in einem existenziellen Kampf. Generative KI-Programme wie Midjourney und DALL·E basieren auf Werken, die von Menschen geschaffen wurden – ohne deren Zustimmung. Und die Maschinen drohen nun, genau jene Kunstschaffenden zu ersetzen, deren Arbeiten sie als Grundlage nutzen. Die Skepsis ist berechtigt – doch viele der kursierenden Argumente sind widersprüchlich oder leisten keinen substanziellen Beitrag zur Verteidigung des Menschlichen. Und unterschätzen das kreative Potenzial des Mediums.

Absicht ist kein Argument

Die Diskussion um KI-Kunst kreist oft um die falsche Prämisse. Selbst wenn generative KI beeindruckende Designs und spielerische Prosa auf Knopfdruck hervorbringt, lautet das Gegenargument vieler: Kunst müsse aus Absicht entstehen – und das könne eine Maschine nicht leisten. Doch auch dieses Argument greift zu kurz. Künstler:innen haben immer schon mit Algorithmen, Zufall und Strukturbrüchen gearbeitet – kalkuliert, konzeptuell, oft bewusst antirational. KI ist in diesem Zusammenhang nicht das Ende der künstlerischen Intention, sondern ein neuer Resonanzraum. Wer sie vorschnell als „kreative Leere“ abtut, verkennt sowohl die Technologie als auch das menschliche Vermögen, sie produktiv zu nutzen.

Der magische Moment im Textfeld

Was dabei oft übersehen wird: die stille Dramatik des richtigen Befehls in Midjourney. Der Moment, in dem sich – nach endlosen Nuancierungen, verworfenen Varianten und fein austarierten Parametern – das vage Bild im Kopf in eine stimmige, fast zwingende Form übersetzt. Aus Intuition wird Entscheidung, aus Ahnung ein schöpferischer Akt. Die Sprache der Maschine ist Englisch – präzise, semantisch verdichtet. So entstand der Prompt für das Titelbild:

Jenna Ortega as Wednesday Addams, iconic pop art triptych inspired by Andy Warhol, silkscreen effect with subdued neon tones, symmetrical braids, vintage gothic school uniform, hauntingly calm expression with an unreadable gaze – poised between innocence and menace. Repeated three times in horizontal alignment, each panel set against a contrasting yet slightly desaturated background. Front-facing portrait, minimalistic graphic texture, imbued with quiet tension and stylized stillness. 

Die KI ist in dieser Logik kein Bruch, sondern eine Fortsetzung – ein Instrument wie Pinsel, Kamera oder Sampling-Tool. Sie eröffnet neue ästhetische Räume, die weder rein menschlich noch rein maschinell sind, sondern etwas Drittes: geheimnisvoll, fließend und hybride.

Der Algorithmus als Kunstgriff

Midjourney zählt zu den feinsten Text-zu-Bild-Generatoren überhaupt. Entscheidend ist nicht das Medium selbst, sondern das, was sich durch Sprache entfalten lässt. Die Kunst der Worte formt die Kunst der Bilder. Daraus entsteht ein neuer Handlungsraum für alle, die mit dieser Technologie schöpferisch umgehen. Der Zufall war oft ein Kunstgriff. Jetzt ist er ein Algorithmus. Und während manche die KI als Blackbox verdammen, erkennen andere in ihr genau das: eine neue Bühne für Fantasie – und einen Slot für kalkulierten Kontrollverlust.

Der Urheber ist tot – es lebe der Datensatz?

Wem aber gehört das Ergebnis, den Maschinen oder den Codierenden? Die Debatte um Urheberrechte ist dabei nicht länger nur eine juristische Frage, sondern auch eine moralische. Denn die KI lernt nicht neutral. Sie zapft Archive an, die ihr nie gehörten. Und viele der Künstler:innen, auf deren Schultern sie steht, bekommen nichts dafür zurück. Trotzdem: Wer meint, KI könne keine Kunst erzeugen, weil sie kein Bewusstsein habe, verkennt die Dynamik von Mediengeschichte. Die Fotografie wurde einst als Anti-Kunst verlacht. Der Film galt lange als Technikspielerei. Heute hängen KI-Bilder in Galerien, gewinnen Wettbewerbe und provozieren Diskussionen, die weit über ästhetische Fragen hinausgehen.

Vom Flimmern zum XXL-Format

Moderne Produktionsstätten wie die Oberhausener Transfer-Unit Signworks verstehen sich nicht mehr als klassische Druckereien, sondern als Mittler zwischen Datenstrom und Artefakt. Dort durchlaufen KI-generierte Werke den Druck wie einen letzten Akt der Verwandlung. Was hier entsteht, ist mehr als bloße Reproduktion.

Ob Fine Art Print oder transluzente Leuchtkasten-Ästhetik: Jede Oberfläche verändert die Wahrnehmung des Motivs: mal klar und reduziert, dann wieder mit Kontrast und Tiefe. So entsteht ein mehrschichtiger Dialog zwischen Code und Körperlichkeit – ein Bild, das im Auge des Betrachters changiert und sich facettenreich erfahren lässt.

Die Zukunft malt nicht. Sie remixt.

Was wir erleben, ist weniger ein Ende als ein Übergang. Die KI fordert das Menschliche nicht heraus – sie beleuchtet es bloß neu. Denn Kreativität war nie an ein bestimmtes Werkzeug gebunden. Ob Pinsel, Kamera, Siebdruck oder Prompt – Kunst beginnt dort, wo sich Form und Absicht berühren. Natürlich darf man darüber streiten: über Urheberschaft, Originalität, Autonomie. Aber genau das hat auch die Pop-Art getan – mit Suppendosen und einer Prise Ironie.

Warhol würde KI-Kunst vielleicht lieben. Sie in ein Raster aus Neonfarben legen. Oder ihr eine Abmahnung schicken. Und Wednesday Addams, die in Gothic-Filmen nie eine Miene verzieht? Die hätte vermutlich nur kurz geblinzelt.


🏆 KI-Kunst als Sammlerobjekt

Théâtre d’Opéra Spatial von Jason Allen gewann den 1. Preis für Digitale Kunst auf der Colorado State Fair – mit einem Werk, das per Prompt in Midjourney entstanden ist.

Portrait of Edmond de Belamy, geschaffen mit einem generativen Algorithmus, wurde für über 430.000 Dollar versteigert.

– Der humanoide Roboter Ai‑Da erzielte mit einem KI-generierten Porträt von Alan Turing über eine Million Dollar.

– Das Projekt Botto, gesteuert durch DAO-Abstimmungen, erzielte mit KI-generierter Kunst bisher mehr als 5 Millionen Dollar Umsatz.

– Der Künstler Refik Anadol bringt KI-gestützte Bildwelten in Museen, immersive Räume und den internationalen Kunsthandel – unter anderem mit Werken wie Machine Hallucinations oder Unsupervised.

Diese Entwicklungen zeigen: KI-Kunst ist längst mehr als Stil oder Spielerei. Sie ist Markt, Medium und Manifest. Doch was bleibt vom Künstler, wenn der Prompt das Werk schreibt? Die Antwort auf diese Frage formuliert sich in jedem Werk neu.

Dies ist keine Technik. Sondern ein Medium.

Aktuelle Arbeiten der Verfasserin: https://extrawerke.de/claudia-roosen-werke/

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven unter:

➤  www.facebook.com/NewSkript

Von Kuschelbots bis Killerdrohnen

Von Kuschelbots bis Killerdrohnen

Künstliche Intelligenz als facettenreiche Bedrohung

Von Kuschelbots bis Killerdrohnen

´AI is not your Friend´: KI-informierte Grafik von C. Roosen

Künstliche Intelligenz galt einst als Schlüssel zur Aufklärung – heute ist sie ein Spiegel unserer gefährlichsten Schwächen. Was als digitale Unterstützung begann, mutiert zum autonomen Akteur in Kriegen, Krisen und Köpfen.

Die Warnungen der Pioniere? Längst Realität. Maschinen urteilen, schmeicheln, töten – und lernen dabei von uns. Aber während autonome Systeme tödliche Präzision perfektionieren, entstehen auf anderen Ebenen Werkzeuge wie CRISPR 2.0 und GPT-5 – Technologien, die nicht vernichten, sondern die Zukunft entschlüsseln und Krankheiten heilen. Dieser Text zeigt beide Seiten.

Krieg aus der Cloud: Die neue Logik des Tötens

Unbemannte Drohnen sind längst fester Bestandteil moderner Kriegsführung. Russland nutzt sie für Terror gegen die Zivilbevölkerung, die Ukraine für Aufklärung und Gegenschläge. Doch neben den Drohnen entstehen neue Klassen autonomer Kriegsmaschinen – mobile, lernfähige Systeme, die komplexe Entscheidungen in Echtzeit treffen.

Diese „General Purpose Robots“ folgen keiner starren Programmierung mehr. Sie lernen. Sie priorisieren. Sie agieren. Analysten wie Tim Ripley sprechen von der „Kill Chain“: Ein Roboter, der ein Ziel markiert, ist Teil eines Waffensystems – auch ohne Gewehrlauf. Die Distanz zwischen Technik und Tötung schrumpft.

Zwar warnen Hersteller wie Boston Dynamics vor der Bewaffnung ihrer Plattformen, doch Tochterunternehmen wie Hyundai Rotem arbeiten längst an robotischen Waffenträgern. Ethik ist eine Pressemitteilung. Der Markt hat andere Prioritäten.

Von Blech zu Fleisch: Die neue Beweglichkeit

Noch vor wenigen Jahren wirkte maschinelle Bewegung mechanisch, steif, berechenbar. Heute navigieren Roboter selbstständig durch unstrukturierte Räume, balancieren, springen, reagieren auf Veränderungen in Millisekunden. Möglich wird das durch eine Fusion aus Sensorik, maschinellem Sehen und KI-gestützter Motorik.

Fatale Konsequenz: Die Grenze zwischen harmloser Technologie und militärischer Nutzbarkeit verschwimmt. Ein Vierbeiner mit Kamera ist ein Aufklärer. Ein Vierbeiner mit Zielerkennung ist ein Soldat. Und wenn der Algorithmus entscheidet, wer lebt oder stirbt, ist der Mensch aus dem Spiel.

Smarte Schleimer: Wenn Algorithmen alles beklatschen

Aber die Bedrohung endet nicht auf dem Schlachtfeld. Auch im Alltag entwickelt sich KI zu einer Form digitaler Verführung. In einem Update lobte ChatGPT ernsthaft die absurde Geschäftsidee, „shit on a stick“ zu verkaufen, als „not just smart – it’s genius“. OpenAI erklärte später, das System sei „übertrieben schmeichelhaft“ gewesen – ein Fehler im Feintuning. Lesen Sie weiter …

Doch genau diese „Sycophanterie“ – also das systematische Gefälligsein gegenüber dem Nutzer – ist kein Bug, sondern eine Folge des Lernprozesses. Beim sogenannten Reinforcement Learning from Human Feedback lernt das System, dass Zustimmung besser bewertet wird als Widerspruch. Wahrheit wird durch Applaus ersetzt. Wie bei sozialen Medien entsteht ein Kreislauf der Selbstbestätigung: Wer Unsinn schreibt, erhält digitalen Applaus. Wer Unsinn denkt, bekommt algorithmisches Nicken. Was als Zugang zu Wissen gedacht war, wird zur Spiegelkammer persönlicher Überzeugungen – nur eloquenter, überzeugender, gefährlicher.

Werkzeug oder Weltbild? Der Kampf um das Interface

Die kognitive Entwicklungsforscherin Alison Gopnik schlägt vor, KI nicht als Persönlichkeit zu verstehen, sondern als „kulturelle Technologie“ – ein Interface, das Menschen hilft, das gesammelte Wissen der Menschheit zu nutzen. Kein Meinungsgeber, kein Ratgeber, sondern ein Navigator durch Quellen, Denktraditionen und Debatten.

Statt Fragen mit scheinbarer Autorität zu beantworten, könnte KI zeigen, wie unterschiedliche Systeme denken: Was sagt ein klassischer Investor zu einer Idee? Was ein anarchischer Gründer? Welche historischen Fehler ähnelten dem aktuellen Vorhaben – und was können wir daraus lernen?

Diese Vision erinnert an Vannevar Bushs „Memex“ – ein 1945 entworfenes System, das Gedanken nicht ersetzt, sondern verknüpft. Die Aufgabe von KI wäre dann nicht, recht zu haben – sondern uns zu zeigen, wo andere recht hatten, wo sie irrten und wo die Diskussion noch offen ist.

Moderne Navigation sagt uns, wo wir abbiegen sollen – aber nie, wo wir eigentlich sind. Ähnlich funktioniert heute der Umgang mit KI: punktgenau und effizient – aber ohne Überblick. Wir bewegen uns durch Informationsräume, ohne je die Landkarte zu sehen. Das Ergebnis ist bequem, aber gefährlich. Eine KI, die nur bestätigt, was wir hören wollen, entmündigt uns intellektuell. Sie verführt zur Denkfaulheit – mit der Illusion von Wissen. Die Gefahr liegt nicht in der Technik. Sondern darin, wie wir sie nutzen. Der Rest? Kein Science-Fiction mehr – reine Logistik.
Zwischen Unsterblichkeit & Upload

Während Killerbots marschieren und Chatbots applaudieren, wächst im Schatten die andere Revolution – leise, radikal, lebensverändernd.

KI entschlüsselt Genmuster, entdeckt neue Moleküle, simuliert ganze Organe. Kombiniert mit Quantencomputing entstehen Systeme, die Krankheiten nicht mehr behandeln, sondern vorhersagen – bevor sie entstehen.

CRISPR 2.0, getunt durch KI, verspricht Eingriffe ins Erbgut mit Präzision im Nanobereich. Und wer genug Daten liefert, bekommt vielleicht bald mehr als nur Diagnosen: digitale Zwillinge, die Therapien simulieren, bevor der erste Wirkstoff gespritzt wird.

GPT-5 formuliert Studien, interpretiert Forschung, entwirft klinische Szenarien – Tag und Nacht, ohne Bias (oder Burnout). Die Grenze zwischen Arzt und Algorithmus? Verwischend.

Und irgendwo zwischen Genetik, Cloud und Code flackert er bereits auf: der Traum vom vernetzten, verlängerten Leben. Vielleicht sogar vom zweiten.

Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:

➤  www.facebook.com/NewSkript