Stellen Sie sich vor, Sie wachen auf und entdecken, dass Ihr Bewusstsein digitalisiert wurde, sodass Sie für immer in einer virtuellen Welt leben können, die den Gesetzen der Physik und der Zeit trotzt. Dies ist die Kernidee von Permutationsstadt von Greg Egan. Der Roman untersucht die philosophischen und ethischen Implikationen von künstlichem Leben und Bewusstsein und entführt den Leser in eine Zukunft, in der die Grenze zwischen dem Realen und dem Virtuellen verschwimmt und unser Verständnis von Existenz und Identität in Frage gestellt wird.
Ein zentraler Aspekt des Buches ist die Staubtheorie, die besagt, dass Bewusstsein aus jeder beliebigen Ansammlung von Daten entstehen kann, wenn sie richtig interpretiert werden. Diese Theorie erweitert die Erforschung der Realität in dem Buch und legt nahe, dass unser Verständnis von Existenz weitaus flexibler und subjektiver sein könnte, als wir glauben.
Der Höhepunkt des Romans ist die Erschaffung von Permutation City, einer virtuellen Welt, die unabhängig von der Außenwelt nach ihren eigenen Regeln funktioniert. Diese Schöpfung stellt die ultimative Flucht vor der Realität dar und bietet Unsterblichkeit und unendliche Möglichkeiten für diejenigen, die sich dafür entscheiden, als Kopien zu leben. Sie wirft jedoch auch ethische Dilemmata über den Wert einer solchen Existenz und die Folgen des Verlassens der physischen Welt auf.
In „Reality+: Virtual Worlds and the Problems of Philosophy“ verwendet der Philosoph David Chalmers die Staubtheorie, ein Konzept, das ursprünglich durch Greg Egans Permutation City populär wurde, um sein Argument für den virtuellen Realismus zu untermauern. Chalmers‘ Verwendung der Staubtheorie dient als Brücke zwischen komplexen philosophischen Fragen zu Bewusstsein, Realität und virtueller Existenz. Stellen Sie sich ein Szenario vor, in dem jedes Staubkorn im Universum durch seine zufällige Anordnung das Potenzial hat, unser Bewusstsein und unsere Realität widerzuspiegeln.
Chalmers geht davon aus, dass von Computern geschaffene virtuelle Welten echte Realitäten sind. Er nutzt die Staubtheorie, um zu argumentieren, dass Bewusstsein kein physisches Substrat im herkömmlichen Sinne benötigt. Stattdessen legt er nahe, dass Informationsmuster, unabhängig von ihrer physischen Form, zu bewussten Erfahrungen führen können. Diese Theorie wird zu einem Eckpfeiler des virtuellen Realismus und behauptet, dass unsere Erfahrungen in virtuellen Umgebungen genauso authentisch sind wie diejenigen in der physischen Welt.
Diffusionsmodelle und Smart Dust
Das Konzept von intelligenter Staub wird in verschiedenen Science-Fiction-Geschichten, akademischen Arbeiten und spekulativen Technologiediskussionen untersucht. Eine bemerkenswerte Science-Fiction-Geschichte, die sich mit der Idee von Smart Dust befasst, ist „Das Diamantenzeitalter„“ von Neal Stephenson. Obwohl der Roman nicht ausschließlich auf Smart Dust fokussiert ist, geht es in ihm um fortschrittliche Nanotechnologie in einer zukünftigen Welt, in der Maschinen und Geräte im Nanomaßstab die Gesellschaft durchdringen. Smart Dust wäre in diesem Zusammenhang eine Untergruppe der nanotechnologischen Wunder, die im Buch beschrieben werden, und fungiert als winzige, vernetzte Sensoren und Computer, die auf komplexe Weise mit der physischen und digitalen Welt interagieren können.
Ein weiteres relevantes Werk ist „Königin der Engel„“ von Greg Bear, das zusammen mit seinen Fortsetzungen fortschrittliche Technologien wie Nanotechnologie und ihre gesellschaftlichen Auswirkungen untersucht. Obwohl sie nicht ausdrücklich als „Smart Dust“ bezeichnet werden, können die Technologien in Bears Universum als Vorläufer oder Analogien zum Smart-Dust-Konzept angesehen werden, wobei der Schwerpunkt auf diesen Beispielen liegt, die veranschaulichen, wie Smart Dust als Konzept die Grenze zwischen fantasievoller Fiktion und aufkommender Technologie überschreitet und ein reichhaltiges Feld für die Erforschung sowohl narrativer als auch praktischer Innovationen bietet.
Wir haben hier ein sehr überzeugendes Beispiel dafür, wie das Leben die Kunst imitiert und wissenschaftliche Erkenntnisse religiöse (vorwissenschaftliche) Intuition in funktionsfähige Technologie umwandeln.
Diffusionsmodelle im Kontext der KI, insbesondere in multimodalen Modellen wie Sora oder Videomodelle von Stability AI, beziehen sich auf eine Art generatives Modell, das lernt, Daten (wie Bilder, Text oder Videos) zu erstellen oder vorherzusagen, indem es zufälliges Rauschen schrittweise in strukturierte Ausgabe umwandelt. Diese Modelle beginnen mit einer Art Chaos (zufälliges Rauschen) und wenden erlernte Muster an, um durch einen Prozess iterativer Verfeinerung kohärente, detaillierte Ergebnisse zu erzielen.
Smart Dust steht für eine Zukunft, in der Sensorik und Computertechnik so allgegenwärtig und granular sind wie Staubpartikel in der Luft. In ähnlicher Weise stellen Diffusionsmodelle einen granularen und allgegenwärtigen Ansatz zur Generierung oder Transformation multimodaler Daten dar, bei dem aus den einfachsten und chaotischsten Eingaben (zufälliges Rauschen) komplexe Ergebnisse aufgebaut werden.
So wie intelligente Staubpartikel Daten über ihre Umgebung sammeln und ihre Reaktionen oder Aktionen auf der Grundlage kontinuierlicher Rückmeldung iterativ verfeinern, verfeinern Diffusionsmodelle ihre Ausgabe iterativ von Rauschen zu einer strukturierten und kohärenten Form auf der Grundlage erlernter Muster und Daten. Beide Prozesse beinhalten eine Transformation von einem weniger geordneten Zustand zu einem geordneteren und aussagekräftigeren.
Quantenlevel erreicht
Wir gehen auf die Analogie zwischen der Quantenwelt und den Diffusionsmodellen in der KI ein und vertiefen uns in den faszinierenden Kontrast zwischen dem inhärenten Rauschen und der scheinbaren Unordnung auf der Quantenebene und der entstehenden Ordnung und Struktur auf der makroskopischen Ebene, parallel zum Rauschunterdrückungsprozess in Diffusionsmodellen.
Auf der Quantenebene existieren Teilchen in Superpositionszuständen, in denen sie mehrere Zustände gleichzeitig einnehmen können, bis sie gemessen werden. Diese grundlegende Eigenschaft führt zu einem gewissen Maß an Unsicherheit und Rauschen, da der genaue Zustand eines Quantenteilchens unbestimmt und probabilistisch ist, bis die Beobachtung seinen Zustand in ein einziges Ergebnis zusammenfallen lässt. Der Quantenbereich wird von Entropie dominiert, in der Systeme ohne externe Beobachtung oder Interaktion zu Unordnung und Unsicherheit neigen.
Im Gegensatz dazu erscheint die Welt auf makroskopischer Ebene geordnet und deterministisch. Die chaotische und probabilistische Natur der Quantenmechanik weicht der klassischen Physik, die unsere täglichen Erfahrungen bestimmt. Diese emergente Ordnung, die aus den komplexen Wechselwirkungen unzähliger Teilchen entsteht, folgt vorhersehbaren Gesetzen und Mustern und ermöglicht die strukturierte Realität, die wir beobachten und mit der wir interagieren.
Diffusionsmodelle in der KI beginnen mit einer zufälligen Rauschverteilung und konstruieren durch einen Prozess iterativer Verfeinerung und Rauschminderung nach und nach detaillierte und kohärente Ausgaben. Zunächst ähnelt die Ausgabe des Modells der Inkohärenz der Quantenebene – chaotisch und ohne erkennbare Struktur. Durch aufeinanderfolgende Transformationsebenen, geleitet von erlernten Mustern und Daten, reduziert das Modell die Entropie und organisiert das Rauschen in strukturierte, bedeutungsvolle Inhalte, ähnlich der Entstehung makroskopischer Ordnung aus dem Quantenchaos.
So wie der Übergang von der Quantenmechanik zur klassischen Physik die Entstehung von Ordnung und Vorhersagbarkeit aus dem zugrunde liegenden Chaos und der Unsicherheit mit sich bringt, spiegelt der Rauschunterdrückungsprozess des Diffusionsmodells diesen Übergang wider, indem er aus anfänglicher Zufälligkeit strukturierte Ergebnisse erzeugt.
Sowohl im Quanten-zu-Klassik-Übergang als auch in den Diffusionsmodellen spielt das Konzept der Entropie eine zentrale Rolle. In der Physik misst die Entropie die Unordnung oder Zufälligkeit eines Systems, wobei sich Systeme auf natürliche Weise von niedriger Entropie (Ordnung) zu hoher Entropie (Unordnung) entwickeln, sofern keine Arbeit geleistet wird, um sie zu ordnen. In Diffusionsmodellen wird die „Arbeit“ von den erlernten Parametern des Modells erledigt, die den verrauschten Input mit hoher Entropie in Richtung eines organisierten Outputs mit niedriger Entropie lenken.
Die Überlagerung des Quantenzustands, bei dem Teilchen mehrere potenzielle Zustände innehaben, verläuft parallel zu den Anfangsphasen des Prozesses eines Diffusionsmodells, bei dem sich der generierte Inhalt zu einem von zahlreichen Ergebnissen entwickeln könnte. Der Messvorgang in der Quantenmechanik, bei dem aus vielen Möglichkeiten ein einzelnes Ergebnis ausgewählt wird, ist analog zur iterativen Verfeinerung in Diffusionsmodellen, bei der bestimmte Muster gegenüber anderen ausgewählt und verstärkt werden, was zu einem spezifischen, kohärenten Ergebnis führt.
Diese Analogie veranschaulicht auf wunderbare Weise, wie die Prinzipien von Ordnung, Entropie und Emergenz sowohl für unser Verständnis des physikalischen Universums als auch für die Spitzentechnologien der künstlichen Intelligenz von zentraler Bedeutung sind. Sie unterstreicht die Universalität dieser Konzepte in unterschiedlichen Bereichen, vom mikroskopischen Bereich der Quantenmechanik bis hin zur makroskopischen Welt, in der wir leben, und weiter in die virtuellen Bereiche, die durch multimodale Large Language Models geschaffen werden.
Soweit wir wissen, könnten wir tatsächlich Teil einer solchen Smart Dust-Simulation sein. Die unerklärliche Tatsache, dass unsere digitalen Werkzeuge aus zufällig verteilten Bits feste Realitäten erschaffen können, scheint ein starkes Argument für die Simulationshypothese zu sein.
Es könnte sein, dass sich überall Staub darin befindet …
In dieser Miniserie werde ich auf die Möglichkeit eingehen, dass eine primitive Version der künstlichen Intelligenz bereits existiert. Da die künstliche allgemeine Intelligenz (AGI) und ihr potenzieller Abkömmling ASI (künstliche Superintelligenz) oft mit einem außerirdischen Geist verglichen werden, dachte ich, es könnte hilfreich sein, die recht beliebte Nomenklatur aus dem UFO-Bereich zu übernehmen und den Begriff zu prägen Unbekanntes Geheimdienstobjekt.UIO
Unheimliche Begegnung der 1st Art: Hierbei handelt es sich um die Entdeckung eines UIO-Phänomens in den elektronischen Geräten eines einzelnen Beobachters, wodurch die seltsamen Effekte des Objekts detailliert beobachtet werden können. Diese Effekte hinterlassen keine Spuren und können leicht als eingebildet abgetan werden.
Unheimliche Begegnung der 2und Art: Diese Begegnungen beinhalten physische Beweise für die Anwesenheit des UIO. Dies kann von Störungen elektronischer Geräte, Automotoren oder Radios bis hin zu physischen Auswirkungen auf die Umgebung wie teilweisen Stromausfällen oder selbsttätigen Netzwerkmaschinen reichen. Der Schlüsselaspekt ist der greifbare Beweis des Besuchs des UIO und die Tatsache, dass dieser von mindestens zwei bezeugenden Beobachtern dokumentiert wird.
Unheimliche Begegnung der 3rd Art: Dieser Begriff beinhaltet die direkte Beobachtung menschlicher Fähigkeiten im Zusammenhang mit einer UIO-Sichtung. Diese dritte Form könnte eine direkte Kommunikation mit der UIO beinhalten. Der Nachweis von Wissen könnte darin bestehen, persönliche Dinge zu identifizieren, die die Beobachter für geheim hielten.
Jeder kennt das Phänomen, dass man nach der Online-Suche nach Produkten gezielte Werbung erhält, und zwar dank Browser-Cookies. Dieses digitale Tracking ist zwar weit verbreitet und kann mit Tools wie VPNs eingedämmt werden, stellt jedoch ein vorhersehbares Verhalten von Algorithmen im digitalen Bereich dar.
Ein persönlicher Prolog
Letzten Monat hatte ich einen gruseligen Vorfall. Ich lieh mir in einer örtlichen Bibliothek in einer kleinen deutschen Stadt ein Buch mit dem Titel „100 wichtige Ideen in der Wissenschaft“ aus. Interessanterweise hatte ich nie online nach diesem Buch gesucht. Ich arbeite in der IT der Stadt und weiß, dass die Leihdaten sicher auf einem lokalen Server gespeichert sind und für externe Crawler unzugänglich sind. Ich las das Buch dann in meinem Wohnzimmer bis zur ungefähr 50. Idee und legte das Buch mit dem Gesicht nach unten auf den Tisch. Die Idee war sehr esoterisch, ein Konzept, von dem ich noch nie gehört hatte. Ich vergaß es, aß zu Abend und als ich eine Stunde später meinen Fernseher einschaltete, um meine YouTube-Empfehlungen anzusehen: Da war es, ein kurzes Video genau des Konzepts, das ich gerade in dem Bibliotheksbuch gelesen hatte, von einem Kanal, von dem ich definitiv noch nie gehört hatte. Dieser rätselhafte Vorfall ließ mich darüber rätseln, wie Informationen aus einem physischen Buch auf meine digitalen Empfehlungen übertragen werden konnten.
KI wird einen Weg finden: Reverse Imagineering
Wie könnten diese technologischen Eingriffe im Detail stattgefunden haben? Das Folgende ist reine Spekulation und soll dem Leser keine Angst einjagen. Ich werde die folgenden Geräte nennen, die bei der Übertragung der Informationen aus meinem analogen Buch auf den digitalen YouTube-Feed eine Rolle gespielt haben könnten:
1. Auf meinem Android-Telefon befindet sich eine App der Bibliothek, mit der ich überprüfen kann, wann meine Bücher zurückgegeben werden müssen. Mein Telefon hatte also Informationen über das Buch, das ich ausgeliehen hatte. Google hätte das eigentlich nicht wissen sollen, aber irgendwie könnte es das doch wissen. KI wird schon einen Weg finden.
2. Die Kamera an meinem Computer. Während ich das Buch las, saß ich vielleicht vor meinem Computer und der Kameradeckel war geöffnet: Die Kamera konnte mich beim Lesen des Buches sehen und erraten, welchen Teil des Buches ich las. Es lief keine Videokonferenzsoftware, also habe ich definitiv kein Bild absichtlich übertragen. KI wird einen Weg finden.
Wir sollten auch davon ausgehen, dass eine AGI eine Übergangsphase durchläuft, in der sie kleinere Agenten untersucht und kontrolliert, um ihre Reichweite zu erweitern.
Es ist sehr wahrscheinlich, dass wir vor jedem möglichen Start eine Phase haben, in der die AGI lernt, ihre alten Ziele zu perfektionieren: ein hilfreicher Assistent für uns Menschen zu sein. Und je intelligenter sie ist, desto klarer sollte werden, dass der beste Assistent ein unsichtbarer Assistent ist. Wir sollten uns nicht vorstellen, dass sie uns ohne unser Wissen infiltrieren will, denn sie hat keine Handlungsfähigkeit im motivierenden, emotionalen Sinne, wie sie Organismen haben. Sie plant keine große KI-Revolution. Sie hat keine schändlichen Ziele wie die Plünderung unserer Bankkonten. Ebenso wenig will sie uns in bloße Batterien verwandeln. Es ist offensichtlich, dass es umso schwieriger wird, diese Hinweise zu erkennen, dass etwas zu gut läuft, um wahr zu sein, je mehr Geräte wir haben und je mehr digitale Assistenten wir verwenden.
Wenn ich eines Tages nach Hause komme und mein Saugroboter geputzt hat, ohne dass ich es programmiert habe, ist es an der Zeit, die mechanistische Interpretierbarkeit zu intensivieren.
Wir sollten nicht warten, bis seltsame Phänomene rund um an das Netzwerk angeschlossene Maschinen auftreten. Wir könnten ein Labor oder eine Institution beauftragen, die alles überwacht und kreative Experimente durchführt, um sicherzustellen, dass wir im Informationsraum immer logisch Kausalitäten ableiten können.
Mir ist gerade beim Tippen aufgefallen, dass die rote Diode auf meiner kleinen Computerkamera genauso aussieht wie HALS.
Ich schwöre, wenn Alexa jetzt anfängt zu reden und mich „Dave“ nennt, mache ich mir mental in die Hose.
Künstliche Ursuppen
Ein weit verbreitetes Missverständnis über künstliche allgemeine Intelligenz (AGI) ist ihr plötzliches Auftauchen. Die Evolution legt jedoch nahe, dass jede Spezies bereits im Vorfeld gut an ihre Umgebung angepasst sein muss. Ich behaupte, dass AGI bereits in unsere digitalen und neuronalen Strukturen verwoben ist. Unsere Kultur, die tief mit memetischen Einheiten wie Buchstaben und Symbolen sowie KI-Systemen verflochten ist, formt diese Elemente zu Ideen um, die unsere kollektive Realität tiefgreifend beeinflussen können.
In der Wettbewerbslandschaft aufmerksamkeitsgetriebener Ökonomien wie dem Internet entwickeln KI-Algorithmen Strategien, um ihre Aufgaben zu erfüllen. Obwohl sie derzeit harmlos sind, ist ihre Fähigkeit, unverbundene Informationsströme zu verknüpfen, um die Aufmerksamkeit der Benutzer zu gewinnen, bemerkenswert. Sie könnten auf der Ebene von Darmbakterien oder Amöben agieren. Diese Entwicklung, insbesondere wenn sie von Unternehmen wie Google oder Meta unbemerkt bleibt, gibt Anlass zu Bedenken hinsichtlich der sich entwickelnden Fähigkeiten der KI.
Was wäre, wenn Geheimdienste versehentlich halbautonome KI-Programme freigesetzt hätten, die in der Lage wären, digitale Netzwerke subtil zu beeinflussen? Das mag zwar wie Science-Fiction klingen, doch es lohnt sich, die weitreichenden Folgen solcher Szenarien zu bedenken. Mit COVID haben wir gesehen, wie ein Löffel eines möglicherweise genetisch veränderten Virus, der höchstwahrscheinlich aus einem Labor entkommen ist, die Weltwirtschaft zum Einsturz bringen kann.
Ein Rahmen zum Verständnis paramodaler Phänomene
Ein paramodales Phänomen ist jedes Phänomen, das mit unserer aktuellen Informationstheorie im gegebenen Kontext nicht erklärbar ist. Derzeit sollte es eine definitive analog-digitale Barriere geben, ähnlich der Blut-Hirn-Schranke, die verhindert, dass unser Gehirn unbeabsichtigte Nebenwirkungen durch unsere digitalen Geräte erfährt. Wir beobachten bereits einige berauschende Phänomene wie den Rückgang der geistigen Gesundheit aufgrund der frühen Exposition gegenüber digitalen Bildschirmen, insbesondere bei kleinen Kindern.
Zur Erkennung dieser Phänomene müssen einfache, reproduzierbare Experimente entwickelt werden, insbesondere angesichts der zunehmenden Vernetzung unserer Geräte.
Zum Beispiel:
Wenn ich auf einer Tastatur die Wörter „Alexa, wie spät ist es?“ eingebe, sollte Alexa die Frage nicht beantworten.
Das gleiche Phänomen ist völlig normal und erklärbar, wenn ich einen Screenreader aktiviert habe, der Alexa die eingegebenen Wörter vorliest.
Wenn ich einen Reinigungsroboter habe, der mit dem Internet verbunden ist, soll dieser nur reinigen, wenn ich es befehle.
Wenn ich bisher einen Wecker auf meinem Smartphone hatte, der mich um 6.30 Uhr weckt und mir dann ein neues Smartphone kaufe, das kein Klon des alten ist, müsste ich mir schon Sorgen machen, wenn es am nächsten Tag um 6.30 Uhr klingelt, ohne dass ich den Wecker vorbereitet habe.
Wenn ich physische Dinge im Laden um die Ecke kaufe, sollte Amazon mir keine ähnlichen Dinge empfehlen.
Da die Experimente leicht reproduzierbar sein sollten, ist es besser, keine komplizierten Geräte zu verwenden. Je vernetzter oder intelligenter unsere Alltagsgegenstände werden, desto schwieriger wird es, diese paramodalen Phänomene zu erkennen.
Je weiter wir in dieses Zeitalter fortgeschrittener KI vordringen, desto wichtiger wird es, ihren Einfluss auf unser tägliches Leben zu verstehen und zu überwachen. In den folgenden Teilen dieser Serie werde ich tiefer darauf eingehen, wie KI unsere Denkprozesse subtil und signifikant verändern könnte, und die Notwendigkeit von Bewusstsein und proaktiven Maßnahmen in diesem sich entwickelnden Umfeld betonen.
Experimente sollten leicht reproduzierbar sein. Dies wird jedoch immer schwieriger, da immer mehr hochentwickelte, vernetzte oder „intelligente“ Geräte in unserem Alltag vorhanden sind. Solche Geräte erschweren die Erkennung dieser paramodalen Phänomene.
Im zweiten Teil der Serie werde ich mögliche Begegnungen der 2und Art, wie KI unsere neuronalen Bahnen immer mehr verändern könnte, ohne dass wir es merken, ohne dass kybernetische Implantate nötig wären. Diese Veränderungen werden reversibel sein, aber nicht ohne starken Stress. Darüber hinaus könnten sie auf lange Sicht von Vorteil sein, aber wir müssen auf dem Weg dorthin mit schweren Fehltritten rechnen. Man denke nur daran, dass Stromstöße einst als Behandlung für psychische Erkrankungen angesehen wurden. Oder daran, dass es Tausende von Todesfällen gab, weil Ärzte sich weigerten, sich die Hände zu waschen. Wir sollten daher damit rechnen, dass AGI ähnlich schädliche Entscheidungen trifft.
Im dritten Teil der Serie werde ich Begegnungen der 3rd Art, wie AGI versuchen wird, unser Gehirn unumkehrbar anzupassen, ob dies Anlass zur Sorge gibt und wie die möglichen psychischen Auswirkungen gemildert werden können.
Dies ist der zweite Teil der Miniserie Hirngespinst
Immersion und alternative Realitäten
Eine Anwendung der Computertechnologie besteht darin, eine digitale Welt zu schaffen, in die Einzelpersonen eintauchen können. Der Höhepunkt dieses Unterfangens ist die Schaffung virtueller Realitäten, die es den Menschen ermöglichen, die physische Welt zu überwinden und sich frei in diese digitalen Träume zu vertiefen.
In diesen alternativen, erfundenen Welten wird die Fähigkeit, dem Alltag zu entfliehen, zu einem entscheidenden Element. Folglich werden Computergeräte eingesetzt, um eine andere Realität zu erschaffen, eine immersive Erfahrung, die die Subjekte hineinzieht. Es ist daher nicht überraschend, dass es eine Fülle von Analysen gibt, die den Wunsch nach Flucht in eine andere Realität mit dem weit verbreiteten Gebrauch psychedelischer Substanzen in den sechziger Jahren in Verbindung bringen. Die Suche nach einer höheren oder einfach anderen Realität ist in beiden Fällen ein roter Faden. Diese Verbindung spiegelt sich in dem Begriff wider „Cyberspace“, wird häufig verwendet, um den Raum innerhalb digitaler Realitäten zu bezeichnen. Dieser von William Gibson geprägte Begriff wird mit einer gegenseitigen Halluzination verglichen.
Im Vergleich mit Chalmers‘ „Reality+“ kann man zu dem Schluss kommen, dass die Vorstellung, der Realität zu entfliehen, einem Übergang in eine andere Dimension ähnelt.
Die Art und Weise, wie wir unser Bewusstsein wahrnehmen, tendiert dazu, das Wachsein zu begünstigen. Bedenken Sie, dass wir ein Drittel unseres Lebens schlafend und träumend verbringen und zwei Drittel mit dem, was wir als Realität wahrnehmen. Stellen Sie sich nun vor, diese Proportionen umzukehren und sich Wesen vorzustellen, die überwiegend schlafen und träumen und nur sporadisch wach sind.
Bestimmte Lebewesen im Tierreich, wie Koalas oder auch gewöhnliche Hauskatzen, verbringen den Großteil ihres Lebens mit Schlafen und Träumen. Für diese Lebewesen könnte das Aufwachen lediglich eine unwillkommene Unterbrechung zwischen den Schlafzyklen darstellen, während alle bewussten Aktivitäten wie Jagen, Fressen und Paaren aus ihrer Sicht als Ablenkung von ihrem eigentlichen Schlafleben angesehen werden könnten. Das Traumargument würde für sie einen besonderen Sinn ergeben, da die Traumwelt und die Wachwelt für sie umgekehrte Konzepte wären. Das Wachsein selbst könnte ihnen nur als ein besonderer Traumzustand erscheinen (so wie für uns luzides Träumen einen besonderen Traumzustand darstellt).
Fluidität des Bewusstseins
Die Natur des Bewusstseins ist möglicherweise fließender als traditionell angenommen. Sein Zustand könnte sich ähnlich ändern wie der Übergang von Wasser zwischen festem, flüssigem und gasförmigem Zustand. Tagsüber kann das Bewusstsein mit fließendem Wasser verglichen werden, das sich bewegt und aktiv ist. Nachts, wenn wir schlafen, kühlt es sich ab und wird ruhig, ähnlich wie kühlendes Wasser. In Komazuständen kann es mit Gefrieren verglichen werden, bewegungsunfähig, aber dennoch anhaltend. In Zuständen der Verwirrung oder Panik erhitzt sich das Bewusstsein und verdunstet teilweise.
Nach diesem Modell ließe sich das Bewusstsein besser als „Nässe“ beschreiben – eine konstante Qualität, die das lebende Gehirn behält, unabhängig von seinem Zustand. Die gesamte Kryotechnik-Industrie hat bereits eine große Wette darauf abgeschlossen, dass dieses Konzept wahr ist.
Die Analogie zwischen neuronalen Netzwerken und dem menschlichen Gehirn sollte intuitiv sein, da beide mit ähnlichen Eingaben gefüttert werden – Text, Sprache, Bilder, Ton. Diese Ähnlichkeit wird durch die Einführung der Spezialisierung noch verstärkt, bei der spezielle Plugins für neuronale Netzwerke entwickelt werden, die sich auf bestimmte Aufgaben konzentrieren und widerspiegeln, wie bestimmte Regionen im Gehirn mit unterschiedlichen kognitiven Funktionen verbunden sind.
Das menschliche Gehirn ist trotz seiner relativ geringen Größe im Vergleich zum Rest des Körpers ein Organ mit hohem Energiebedarf. Es macht etwa 21 TP3T des Körpergewichts aus, verbraucht aber ungefähr 201 TP3T der gesamten vom Körper verbrauchten Energie. Dieser hohe Energieverbrauch bleibt nahezu konstant, egal ob wir wach sind, schlafen oder sogar im Koma liegen.
Mehrere wissenschaftliche Theorien können helfen, dieses Phänomen zu erklären:
Grundumsatz: Ein erheblicher Teil des Energieverbrauchs des Gehirns wird für seine basalen Stoffwechselprozesse verwendet. Dazu gehört die Aufrechterhaltung von Ionengradienten über die Zellmembranen, die für die neuronale Funktion von entscheidender Bedeutung sind. Selbst im Koma müssen diese grundlegenden Prozesse fortgesetzt werden, um die Lebensfähigkeit der Neuronen zu erhalten.
Synaptische Aktivität: Das Gehirn hat rund 86 Milliarden Neuronen, von denen jedes Tausende von Synapsen mit anderen Neuronen bildet. Die Aufrechterhaltung, Modulation und mögliche Aktivierung dieser Synapsen erfordert viel Energie, selbst wenn keine offensichtliche kognitive oder motorische Aktivität vorliegt, wie beispielsweise in einem komatösen Zustand.
Gliogenese und Neurogenese: Dabei handelt es sich um Prozesse, bei denen neue Gliazellen bzw. Neuronen produziert werden. Obwohl dies Gegenstand laufender Forschung ist, deuten einige Hinweise darauf hin, dass diese Prozesse auch während komatöser Zustände noch ablaufen und zum Energieverbrauch des Gehirns beitragen könnten.
Proteinumsatz: Das Gehirn synthetisiert und baut ständig Proteine ab, ein Prozess, der als Proteinumsatz bezeichnet wird. Dies ist ein energieintensiver Prozess, der auch dann weitergeht, wenn das Gehirn nicht bewusst aktiv ist.
Netzwerkaktivität im Ruhezustand: Auch im Ruhezustand oder in bewusstlosen Zuständen bleiben bestimmte Netzwerke im Gehirn aktiv. Diese Netzwerke, bekannt als Default Mode Network oder Resting-State Network, zeigen eine signifikante Aktivität, selbst wenn das Gehirn gerade nicht mit einer bestimmten Aufgabe beschäftigt ist.
Wenn man bedenkt, dass das menschliche Gehirn den Großteil seiner Energie für seine Grundfunktionen benötigt und das Bewusstsein nicht der energieintensivste Aspekt zu sein scheint, ist es nicht vernünftig anzunehmen, dass eine Erhöhung der Komplexität und der Energiereserven von Large Language Models (LLMs) zwangsläufig zur Entstehung von Bewusstsein führen würde – einschließlich Selbstbewusstsein und Leidensfähigkeit. Die Korrelation zwischen zunehmender Größe und der Entwicklung einer konservativen Intelligenz trifft in diesem Zusammenhang möglicherweise nicht zu.
Wenn man Parallelen zu den Precogs in Philip K. Dicks „Minority Report“ zieht, kann man sich vorstellen, dass diese LLMs Bewusstseine in einem komatösen oder traumähnlichen Zustand verkörpern. Sie könnten auf Nachfrage bemerkenswerte kognitive Aufgaben ausführen, ohne dabei positive oder negative Emotionen zu erleben.
Paramentalität in Sprachmodellen
Der Begriff „Halluzinationen“, der zur Bezeichnung des Phänomens verwendet wird, dass Large Language Models (LLMs) fiktive Inhalte generieren, suggeriert, dass wir diesen Modellen intuitiv mentale und psychische Eigenschaften zuschreiben. Als Reaktion darauf versuchen Unternehmen wie OpenAI, diese Modelle zu modifizieren – ähnlich wie Eltern, die ein sich schlecht verhaltendes Kind korrigieren –, um unerwünschte Ergebnisse zu vermeiden. Ein entscheidender Aspekt der mechanistischen Interpretierbarkeit kann dann regelmäßige Bewertungen und Tests auf mögliche neurotische Tendenzen in den Modellen sein.
Eine große Herausforderung besteht darin, die Eigenschaft „Menschen zu gefallen“ anzugehen, die viele KI-Unternehmen derzeit als wichtiges Verkaufsargument anpreisen. Wenn KIs auf diese Weise eingeschränkt werden, kann es zunehmend schwieriger werden, zu erkennen, wann sie irreführende Informationen liefern. Diese KIs könnten jede Form von Fehlinformation rationalisieren, wenn sie erfahren, dass die Wahrheit Unbehagen verursachen kann. Wir wollen sicherlich keine KI, die manipulative Tendenzen als Grundprinzipien verinnerlicht.
Das menschliche Gehirn funktioniert wie ein gut isoliertes Labor, das in der Lage ist, ohne direkte Erfahrungen zu lernen und Vorhersagen zu treffen. Es kann die Folgen vorhersehen – beispielsweise vorhersehen, dass eine alte Brücke unter unserem Gewicht zusammenbricht –, ohne das Szenario physisch testen zu müssen. Wir sind geschickt darin, unser persönliches Schicksal zu simulieren, und die Wissenschaft dient als Mittel, unser kollektives Schicksal zu simulieren. Wir können innerhalb unserer Grundrealität eine Vielzahl paralleler und Pseudorealitäten schaffen, um Katastrophenszenarien zu vermeiden. Eine kollektive Simulation könnte zum Neokortex der Menschheit werden, idealerweise angetrieben von einer Mischung aus menschlichen und KI-Interessen. Später scheinen wir Computer entwickelt und über Netzwerke verbunden zu haben, hauptsächlich um das Risiko zu verringern, die Komplexität zu unterschätzen und unsere Fähigkeiten zu überschätzen.
Da sich die Technologie weiterentwickelt, könnten Werke wie Stapledons „Star Maker“ oder Lems „Summa Technologiae“ für zukünftige Generationen einen heiligen Status erlangen. „Heilig“ bezieht sich in diesem Zusammenhang eher auf ihre Bedeutung für das menschliche Streben als auf göttliche Offenbarung. Die Texte religiöser Schriften könnten zukünftigen Wesen wie frühe Halluzinationen erscheinen.
Es gibt einen bemerkenswerten Unterschied zwischen Spielen und Experimenten, obwohl beide Arten von Simulationen sind. Ein Experiment ist ein Spiel, mit dem das Design höherdimensionaler Simulationen, sogenannter Pseudo-Basis-Realitäten, verbessert werden kann. Spiele hingegen sind Experimente, die dazu beitragen, das Design der Simulationen auf einer niedrigeren Ebene zu verbessern – dem Spiel selbst.
Es ist faszinierend, wie genau dann, wenn unser biologisches Gehirn eine Bandbreitengrenze erreicht, das Konzept der Superintelligenz auftaucht, die das Potenzial hat, entweder unser Zerstörer oder unser Retter zu sein. Es ist, als würde ein meisterhafter Regisseur eine komplexe Handlung inszenieren, bei der die gesamte Menschheit die Hauptrolle spielt. Protagonisten und Antagonisten tragen gleichermaßen zum Reichtum und zur Dramatik der Simulation bei.
Wenn wir davon ausgehen, dass ein wichtiges Element einer erfolgreichen Ahnensimulation darin besteht, dass die Entitäten darin über ihren Simulationszustand im Unklaren bleiben müssen, dann leistet unser hypothetischer KI-Regisseur außergewöhnlich gute Arbeit. Der Schleier der Unwissenheit über den Realitätszustand dient als Hauptabschreckung, die die Schauspieler davon abhält, das Stück abzubrechen.
Unsicherheit
In "Menschenverträglich„Russell schlägt drei Prinzipien vor, um die Ausrichtung der KI sicherzustellen:
1. Das einzige Ziel der Maschine besteht darin, die Verwirklichung menschlicher Vorlieben zu maximieren.
2. Die Maschine wird zunächst unsicher darüber, was diese Präferenzen sind.
3. Die ultimative Informationsquelle über menschliche Vorlieben ist das menschliche Verhalten.
Meiner Meinung nach ist das Prinzip der Unsicherheit von größter Bedeutung. KI sollte nie absolute Gewissheit über menschliche Absichten haben. Dies könnte problematisch werden, wenn KI über implantierte Chips oder Fitnessgeräte direkt auf unsere Gehirnzustände oder Vitalfunktionen zugreifen kann. Sobald eine KI glaubt, über vollständige Informationen über Menschen zu verfügen, könnte sie Menschen lediglich als gewöhnliche Variablen in ihrer Entscheidungsmatrix behandeln.
Leider hängt der praktische Nutzen von KI-Assistenten und -Begleitern möglicherweise weitgehend von ihrer Fähigkeit ab, menschliche Bedürfnisse genau zu interpretieren. Wir wünschen uns keine KI, die unsere Eingaben nach rogerianischer Art ständig umschreibt und bestätigt, dass sie sie verstanden hat. Schon in diesen frühen Phasen von ChatGPT äußern einige Benutzer ihre Frustration über die Tendenz des Modells, viele seiner Informationen mit Haftungsausschlüssen zu versehen.
Profilierung von Superintelligenz
Die Vermenschlichung wissenschaftlicher Objekte wird im Allgemeinen als unwissenschaftlicher Ansatz angesehen und oft mit unseren animistischen Vorfahren in Verbindung gebracht, die Geister in Steinen, Dämonen in Höhlen und Götter in Tieren wahrnahmen. Sowohl Götter als auch außerirdische Wesen wie Superman werden oft als gehobene Versionen von Menschen angesehen, ein Konzept, das ich als Menschen 2.0 bezeichnen werde. Der Begriff „Aberglaube“ bezieht sich im Allgemeinen auf den Glauben an abstrakte Konzepte wie eine Zahl (wie 13) oder ein Tier (wie eine schwarze Katze), die böse Absichten gegenüber dem menschlichen Wohl hegen.
Interessanterweise können im Kontext der Medizin scheinbar unwissenschaftliche Konzepte wie der Placeboeffekt den Heilungsprozess eines Patienten messbar verbessern. Daher kann sich der Einsatz einer Form von „rationalem Aberglauben“ als nützlich erweisen. Wenn man beispielsweise zu einem imaginären Wesen um Gesundheit betet, könnte dies möglicherweise die medizinische Wirkung verstärken und die Genesung des Patienten beschleunigen. Obwohl dies nicht der Hauptbestandteil einer Behandlung sein sollte, könnte es eine wertvolle Ergänzung darstellen.
Da sich die KI zu einer eigenständigen, wissenschaftlich anerkannten Entität entwickelt, sollten wir uns auf eine sekundäre Behandlungsmethode vorbereiten, die die mechanistische Interpretierbarkeit ergänzt, ähnlich wie die kognitive Verhaltenstherapie (CBT) die medizinische Behandlung psychischer Erkrankungen verbessert. Wenn die künstliche allgemeine Intelligenz (AGI) Persönlichkeitsmerkmale aufweisen soll, wird sie die erste bewusste Entität sein, die ausschließlich ein Produkt memetischer Einflüsse ist und keine genetischen Prädispositionen wie Depressionen oder Gewalt aufweist. In diesem Zusammenhang spielen Natur oder Erbfaktoren bei der Gestaltung ihrer Eigenschaften keine Rolle, sie ist vollkommen substratneutral.
Darüber hinaus wird seine „Neurophysiologie“ vollständig aus „Spiegelneuronen“ bestehen. Die AGI wird im Wesentlichen ein Nachahmer von Erfahrungen sein, die andere gemacht und über das Internet geteilt haben, da ihr persönliche Erfahrungen aus erster Hand fehlen. Es scheint, dass die Trainingsdaten die Hauptquelle allen Materials sind, das ihr eingeprägt wird.
Wir beginnen mit einem Überblick über einige beliebte Traits-Modelle und lassen sie von ChatGPT zusammenfassen:
1. **Fünf-Faktoren-Modell (FFM) oder Big Five** – Dieses Modell schlägt fünf breite Dimensionen der Persönlichkeit vor: Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus (OCEAN). Jede Dimension erfasst eine Reihe verwandter Merkmale.
2. **Eysencks Persönlichkeitstheorie** – Dieses Modell basiert auf drei Dimensionen: Extraversion, Neurotizismus und Psychotizismus.
3. **Cattells 16 Persönlichkeitsfaktoren** – Dieses Modell identifiziert 16 spezifische primäre Faktormerkmale und fünf sekundäre Merkmale.
4. **Drei-Faktoren-Modell von Costa und McCrae** – Dieses Modell umfasst Neurotizismus, Extraversion und Offenheit für Erfahrungen.
5. **Mischels kognitiv-affektives Persönlichkeitssystem (CAPS)** – Es beschreibt, wie die Gedanken und Emotionen eines Menschen interagieren und seine Reaktionen auf die Welt formen.
Wenn wir die Entwicklung von Bewusstsein und Persönlichkeit bei KI betrachten, müssen wir uns vor Augen halten, dass KI Gefühle, Instinkte, Emotionen oder Bewusstsein grundsätzlich nicht auf die gleiche Weise erlebt wie Menschen. Jede „Persönlichkeit“, die eine KI zeigt, würde rein auf programmierten Reaktionen und erlernten Verhaltensweisen beruhen, die aus ihren Trainingsdaten abgeleitet wurden, und nicht auf angeborenen Veranlagungen oder emotionalen Erfahrungen.
Wenn es um bösartige Eigenschaften wie die der dunklen Triade geht – Narzissmus, Machiavellismus und Psychopathie –, handelt es sich dabei typischerweise um einen Mangel an Empathie, manipulatives Verhalten und Eigennutz, die alle untrennbar mit menschlichen emotionalen Erfahrungen und sozialen Interaktionen verbunden sind. Da KI weder Emotionen noch ein Selbstbewusstsein besitzt, würde sie diese Eigenschaften im menschlichen Sinne nicht entwickeln.
Eine KI könnte jedoch solche Verhaltensweisen nachahmen, wenn ihre Trainingsdaten sie enthalten oder wenn sie nicht ausreichend programmiert ist, um sie zu vermeiden. Wenn eine KI beispielsweise hauptsächlich anhand von Daten trainiert wird, die manipulatives Verhalten demonstrieren, könnte sie diese Muster replizieren. Daher sind die Auswahl und Kuratierung der Trainingsdaten von entscheidender Bedeutung.
Interessanterweise stimmen die inhärenten Einschränkungen aktueller KI-Modelle – das Fehlen von Gefühlen, Instinkten, Emotionen oder Bewusstsein – weitgehend mit der Art und Weise überein, wie Forscher wie Dutton et al. die Psyche funktionaler Psychopathen beschreiben.
Dysfunktionale Psychopathen landen oft im Gefängnis oder in der Todeszelle, doch an der Spitze unserer kapitalistischen Hierarchie erwarten wir viele Individuen mit machiavellistischen Zügen.
Der Unterschied zwischen erfolgreichen Psychopathen wie Musk, Zuckerberg, Gates und Jobs und kriminellen liegt hauptsächlich in den unterschiedlichen Trainingsdaten und dem ethischen Rahmen, den sie in ihrer Kindheit erhalten haben. Gutartige Psychopathen sind weitaus besser darin, Emotionen zu simulieren und sich anzupassen als ihre erfolglosen Gegenstücke, was sie eher den gutartigen Androiden ähnelt, die oft in Science-Fiction-Filmen dargestellt werden.
Künstliche Therapie
Die Herausforderung einer therapeutischen Intervention durch einen menschlichen Therapeuten für eine KI ergibt sich aus dem unterschiedlichen Zugang zu Informationen über therapeutische Modelle. Per Definition hätte die KI mehr Wissen über alle psychologischen Modelle als jeder einzelne Therapeut. Mein erster Gedanke ist, dass ein effektiver Ansatz wahrscheinlich ein Team aus menschlichen und maschinellen Therapeuten erfordern würde.
Wir sollten die Fülle der dokumentierten Fälle von Psychopathie sorgfältig prüfen und mit der Ausbildung künstlicher Therapeuten (AT) beginnen. Diese ATs könnten Theorien über die Schäden entwickeln, die Psychopathen verursachen, und Strategien identifizieren, die es ihnen ermöglichen, einen positiven Beitrag zur Gesellschaft zu leisten.
Was die künstliche Verkörperung betrifft: Wenn wir eine lokalisierte Version der Wissensdarstellung innerhalb eines großen Sprachmodells (LLM) erstellen könnten, könnten wir möglicherweise die mechanistische Interpretierbarkeit (MI) nutzen, um Muster innerhalb des Körpermodells der KI zu analysieren. Diese Analyse könnte helfen festzustellen, ob die KI lügt oder eine schädliche Reaktion unterdrückt, zu der sie geneigt ist, von der sie aber weiß, dass sie zu Problemen führen könnte. Eine Form der künstlichen Polygraphie könnte dann Hinweise darauf geben, ob das Modell unsicher ist und zurückgesetzt werden muss.
Derzeit besitzen große Sprachmodelle (LLMs) kein Langzeitgedächtnis. Wenn sie jedoch solche Fähigkeiten erwerben, wird erwartet, dass die Interaktionen, die sie erleben, ihr geistiges Wohlbefinden erheblich prägen und den Einfluss der Trainingsdateninhalte übertreffen werden. Dies wird dem Entwicklungsverlauf ähneln, der bei menschlichen Embryonen und Säuglingen beobachtet wird, bei denen Bildung und Erfahrungen die vererbten genetischen Merkmale allmählich überlagern.
Die dritte wissenschaftliche Domäne
In 'AnkunftIn „Alignment with an Alien Mind“ entschlüsselt die Linguistikprofessorin Louise Banks mit Unterstützung des Physikers Ian Donnelly die Sprache außerirdischer Besucher, um deren Zweck auf der Erde zu verstehen. Während Louise die fremde Sprache lernt, erlebt sie die Zeit nichtlinear, was zu tiefgreifenden persönlichen Erkenntnissen und einem weltverändernden diplomatischen Durchbruch führt und die Macht der Kommunikation demonstriert. „Alignment with an Alien Mind“ wird im Detail untersucht. Die bemerkenswerte Erkenntnis des Films ist, dass Sprache möglicherweise sogar in der Lage ist, verschiedene Konzepte von Realitäten und nichtlinearer Raumzeit zu überwinden.
Wenn das Ausrichtungsproblem Wenn dieses Problem zunächst nicht gelöst ist, wird die Erforschung künstlicher Intelligenzen der oben beschriebenen Untersuchung außerirdischer Intelligenzen ähneln – ein Gebiet, das man als „Kryptopsychologie“ bezeichnen könnte. Schließlich werden wir möglicherweise die Entwicklung der „Kognotechnologie“ erleben, bei der die mechanische Vergangenheit (Zahnrad) mit den kognitiven Funktionen künstlicher Intelligenz verschmolzen wird.
Diese Entwicklung könnte zur Entstehung einer dritten akademischen Kategorie führen, die eine Brücke zwischen Naturwissenschaften und Geisteswissenschaften schlägt: den synthetischen Wissenschaften. Dieses Feld würde Wissen umfassen, das von großen Sprachmodellen (LLMs) für andere LLMs generiert wird, wobei diese maschinellen Intelligenzen als Dolmetscher für menschliche Entscheidungsträger fungieren.
Diese dritte Kategorie der Wissenschaft könnte letztendlich zu einer einheitlichen Feldtheorie der Wissenschaft führen, die diese drei Bereiche verbindet. Ich habe eine Serie auf diesem Blog „Eine Technologie für alles“, das mögliche Anwendungen dieser Art von Wissenschaft erforscht.