In dieser Serie wird das Phänomen der Aufmerksamkeitsenergie untersucht und warum sie intelligente Agenten antreibt, egal ob sie von Natur aus geboren oder anderweitig erschaffen wurden. Das von mir verwendete Aufmerksamkeitskonzept ist die Memetik. Es wird entscheidend sein zu verstehen, warum die biologische Evolution von vertikalen, erblichen Evolutions- und Mutationsmechanismen zu horizontalen, memetischen Informationstransportmitteln überging und warum das Gehirn und sein neuronaler Inhalt zum Motor dieser Evolution wurden. In späteren Episoden werde ich zeigen, warum Simulationen so wichtig sind und warum es kein Zufall ist, dass der produktivste Spielplatz für technologische und andere Innovationen im übermäßigen Wildtrieb höherer Säugetiere liegt.
Kurze Einführung in Memes und Tokens
Überlebensmaschinen, die die Zukunft simulieren können, sind Überlebensmaschinen, die nur durch Versuch und Irrtum lernen können, einen Schritt voraus. Das Problem mit offensichtlichem Ausprobieren ist, dass es Zeit und Energie kostet. Das Problem mit offensichtlichem Irrtum ist, dass er oft tödlich ist … Die Entwicklung der Simulationsfähigkeit scheint im subjektiven Bewusstsein gipfelt zu haben. Warum dies geschehen ist, ist für mich das tiefste Rätsel der modernen Biologie.
Kap. 4. Die Genmaschine – Das egoistische Gen (1976, 1989)
„Das egoistische Gen“ von Richard Dawkins, das erstmals 1976 veröffentlicht wurde, ist ein bahnbrechendes Werk, das die genzentrierte Sicht der Evolution populär machte. Dawkins argumentiert, dass die grundlegende Selektionseinheit in der Evolution nicht der einzelne Organismus, nicht die Gruppe oder Art, sondern das Gen ist. Er schlägt vor, dass Gene als Erbeinheiten „egoistisch“ sind, da sie Verhaltensweisen und Strategien fördern, die ihre eigenen Chancen auf Replikation maximieren. Aus dieser Perspektive werden Organismen als Vehikel oder „Überlebensmaschinen“ betrachtet, die von Genen geschaffen werden, um ihre eigene Replikation und Weitergabe an zukünftige Generationen sicherzustellen.
Dawkins führt das Konzept des „Mems“ als kulturelle Parallele zum biologischen Gen ein. Die Memetik, wie sie von Dawkins definiert wird, ist der theoretische Rahmen zum Verständnis, wie sich Ideen, Verhaltensweisen und kulturelle Phänomene in menschlichen Gesellschaften reproduzieren und weiterentwickeln. Meme sind Einheiten kultureller Information, die sich von Geist zu Geist verbreiten und dabei Variationen, Konkurrenz und Vererbung erfahren, ähnlich wie Gene in der biologischen Evolution. Dieses Konzept bietet einen Mechanismus zum Verständnis der kulturellen Evolution und wie sich bestimmte Ideen oder Verhaltensweisen in menschlichen Populationen verbreiten und fortbestehen.
Dawkins' Erforschung der Memetik legt nahe, dass Meme, genau wie das Überleben und die Reproduktion von Genen die biologische Evolution prägen, die Evolution von Kulturen beeinflussen, indem sie bestimmen, welche Ideen oder Praktiken sich verbreiten und welche nicht. Die Implikationen dieser Theorie erstrecken sich auf verschiedene Bereiche, darunter Anthropologie, Soziologie und Psychologie, und bieten Einblicke in menschliches Verhalten, kulturelle Übertragung und die Entwicklung von Gesellschaften im Laufe der Zeit.
Token im Kontext von Sprachmodellen, wie sie in Modellen der GPT-Reihe verwendet werden, stellen die kleinste Verarbeitungseinheit dar. Texteingaben werden in Token zerlegt, die je nach Tokenisierungsprozess Wörter, Wortteile oder sogar Satzzeichen sein können. Diese Token werden dann vom Modell verwendet, um Text zu verstehen und zu generieren. Der Prozess beinhaltet die Kodierung dieser Token in numerische Darstellungen, die von neuronalen Netzwerken verarbeitet werden können. Token sind für den Betrieb von Sprachmodellen von entscheidender Bedeutung, da sie als grundlegende Bausteine zum Verstehen und Generieren von Sprache dienen.
Meme umfassen Ideen, Verhaltensweisen, Stile oder Praktiken, die sich innerhalb einer Kultur verbreiten. Das Konzept des Memes ist analog zum Gen, da sich Meme replizieren, mutieren und auf Selektionsdruck im kulturellen Umfeld reagieren und so eine Art Evolution durch natürliche Selektion durchlaufen. Meme können alles Mögliche sein, von Melodien, Schlagworten, Mode und Technologieübernahme bis hin zu komplexen kulturellen Praktiken. Dawkins' Hauptargument war, dass sich Meme genauso wie Gene verbreiten, indem sie über Spermien oder Eier von Körper zu Körper springen, von Gehirn zu Gehirn verbreiten.
Sowohl Meme als auch Tokens fungieren in ihren jeweiligen Bereichen als Übertragungseinheiten. Meme sind Einheiten kultureller Information, während Tokens Einheiten sprachlicher Information sind.
Es gibt auch Unterschiede.
Meme entwickeln sich durch kulturelle Prozesse, wenn sie von einem Individuum zum anderen weitergegeben werden, und passen sich im Laufe der Zeit an ihr kulturelles Umfeld an. Token entwickeln sich jedoch nicht innerhalb des Modells selbst; sie sind statische Darstellungen der Sprache, die vom Modell verwendet werden, um Text zu verarbeiten und zu generieren. Die Entwicklung von Token zeigt sich in der Entwicklung besserer Tokenisierungstechniken und -modelle im Laufe der Zeit, die eher von Fortschritten auf dem Gebiet beeinflusst wird als von einem Anpassungsprozess innerhalb eines einzelnen Modells.
Memes reproduzieren sich, indem sie von einem Geist in einen anderen kopiert werden, oft mit Variationen. Token werden bei der Textverarbeitung exakt repliziert, können aber in ihrer Darstellung in verschiedenen Modellen oder Tokenisierungsschemata variieren.
Der Auswahlprozess für Meme umfasst kulturelle Akzeptanz, Relevanz und Übertragungswirksamkeit, was dazu führt, dass sich einige Meme verbreiten, während andere verschwinden. Bei Tokens geht es im Auswahlprozess eher um ihre Wirksamkeit bei der Verbesserung der Modellleistung, was dazu führt, dass bestimmte Tokenisierungsmethoden gegenüber anderen übernommen werden, basierend auf ihrer Fähigkeit, das Verständnis oder die Generierung von Sprache zu verbessern. Im Auswahlprozess während des Trainings werden Tokens von anderen menschlichen Köpfen (Meme-Maschinen) gewichtet und nach Attraktivität ausgewählt; Token-Pools, die beliebter sind, haben eine höhere Wahrscheinlichkeit, aufzutreten.
Memeplexe können komplex und abstrakt sein und ein breites Spektrum kultureller Phänomene umfassen, aber alle Meme, die sie enthalten, sind sehr einfach und elementar.
Token sind im Allgemeinen sogar noch einfacher und stellen diskrete Elemente der Sprache dar, obwohl die Art und Weise, wie diese Token kombiniert und vom Modell verwendet werden, komplexe Ideen darstellen kann.
Der Titel des Google-Artikels Aufmerksamkeit ist alles, was Sie brauchen ist eine mutige Aussage, die einen deutlichen Wandel im Ansatz zur Entwicklung neuronaler Netzwerkarchitekturen für die Verarbeitung natürlicher Sprache (NLP) und darüber hinaus widerspiegelt. Dieses 2017 von Vaswani et al. veröffentlichte Papier stellte das Transformer-Modell vor, das bei der Datenverarbeitung stark auf den Aufmerksamkeitsmechanismus angewiesen ist. Der Begriff „Aufmerksamkeit“ bezieht sich in diesem Zusammenhang auf eine Technik, die es dem Modell ermöglicht, sich zu unterschiedlichen Zeiten auf unterschiedliche Teile der Eingabedaten zu konzentrieren und dynamisch zu priorisieren, welche Aspekte für die jeweilige Aufgabe am relevantesten sind.
Vor der Einführung des Transformer-Modells basierten die meisten modernen NLP-Modelle auf rekurrierenden neuronalen Netzwerken (RNNs) oder Convolutional Neural Networks (CNNs), die Daten sequenziell bzw. über lokale rezeptive Felder verarbeiteten. Diese Ansätze hatten Einschränkungen, insbesondere beim Umgang mit weitreichenden Abhängigkeiten innerhalb der Daten (z. B. beim Verstehen der Beziehung zwischen zwei weit auseinander liegenden Wörtern in einem Satz).
Der Aufmerksamkeitsmechanismus, wie er im Transformer verwendet wird, behebt diese Einschränkungen, indem er es dem Modell ermöglicht, die Bedeutung verschiedener Teile der Eingabedaten unabhängig von ihrer Position abzuwägen. Dies wird durch Selbstaufmerksamkeitsschichten erreicht, die Darstellungen der Eingabe berechnen, indem sie berücksichtigen, wie sich jedes Wort auf jedes andere Wort im Satz bezieht, wodurch das Modell komplexe Abhängigkeiten und Beziehungen innerhalb der Daten effizient erfassen kann.
Die wichtigste Innovation des Transformers und der Grund für den Titel des Artikels ist die ausschließliche Verwendung von Aufmerksamkeitsmechanismen ohne Abhängigkeit von RNNs oder CNNs zur Datenverarbeitung. Dieser Ansatz erwies sich als äußerst effektiv und führte zu erheblichen Verbesserungen bei einer Vielzahl von NLP-Aufgaben, wie etwa maschineller Übersetzung, Textzusammenfassung und vielen anderen. Seitdem ist er zur Grundlage für nachfolgende Modelle und Fortschritte auf diesem Gebiet geworden und veranschaulicht die Leistungsfähigkeit und Vielseitigkeit von Aufmerksamkeitsmechanismen in Deep-Learning-Architekturen.
Man muss zugeben, dass diese Art der Aufmerksamkeit das künstliche Gegenstück zum natürlichen Instinkt der Liebe ist, der Säugetiergesellschaften zusammenhält. Was bedeuten würde, dass die Beatles doch recht hatten.
Eine Information, die eine Transformation bewirkt
Was wir unter Information verstehen – der elementaren Einheit von Information – ist ein Unterschied, der einen Unterschied macht, und sie kann einen Unterschied machen, weil die neuronalen Bahnen, entlang derer sie wandert und ständig transformiert wird, selbst mit Energie versorgt werden. Die Bahnen sind bereit, aktiviert zu werden. Man könnte sogar sagen, dass die Frage bereits in ihnen implizit steckt.
S. 459, Kapitel „Form, Substanz und Unterschied“ – Schritte zu einer Ökologie des Geistes (1972)
Die Transformer-Architektur wurde bereits 1972 von Bateson angedeutet, Jahrzehnte bevor wir von neuronaler Plastizität wussten.
Batesons Idee dreht sich um das Konzept, dass Information grundsätzlich ein Muster oder ein Unterschied ist, der sich auf den Zustand oder das Verhalten eines Systems auswirkt. Für Bateson sind nicht alle Unterschiede informativ; nur diejenigen, die in einem bestimmten Kontext zu irgendeiner Form von Veränderung oder Reaktion führen, werden als Informationsvermittlung betrachtet. Diese Perspektive ist tief in der Kybernetik und der Erforschung von Kommunikationsprozessen in und zwischen lebenden Organismen und Maschinen verwurzelt.
Das Zitat „ein Unterschied, der einen Unterschied macht“ bringt die Vorstellung auf den Punkt, dass Informationen nicht nur als Daten oder Rohdaten betrachtet werden sollten, sondern im Hinblick auf ihre Fähigkeit verstanden werden sollten, die Dynamik eines Systems zu beeinflussen oder zu verändern. Es ist ein grundlegendes Konzept zum Verständnis, wie Informationen in verschiedenen Systemen verarbeitet und genutzt werden, von biologischen bis hin zu künstlichen Intelligenznetzwerken, und betont die relationale und kontextuelle Natur von Informationen.
Dieses Konzept hat weitreichende Auswirkungen auf verschiedene Bereiche, darunter Psychologie, Ökologie, Systemtheorie und künstliche Intelligenz. Es betont die relationale und kontextuelle Natur von Informationen und legt nahe, dass die Bedeutung einer Information nur im Verhältnis zum System verstanden werden kann, zu dem sie gehört. Für die KI und die Kognitionswissenschaft unterstreicht dieses Prinzip die Bedeutung des Kontexts und der Vernetzung von Informationspfaden beim Verständnis und der Gestaltung intelligenter Systeme.
Hinton, Sutskever und andere argumentieren immer wieder, dass Modelle wie GPT 4.0, um fortgeschrittene Ebenen der natürlichen Sprachverarbeitung (NLP) zu erreichen, den Inhalt, mit dem sie sich befassen, wirklich verstehen müssen. Dieses Verständnis entsteht durch die Analyse riesiger Mengen digitaler Daten, die von Menschen erstellt wurden, wodurch diese Modelle eine realistische Sicht der Welt aus menschlicher Perspektive entwickeln können. Weit davon entfernt, bloße „stochastische Papageien“ zu sein, wie sie manchmal in den Medien dargestellt werden, bieten diese Modelle eine differenziertere und fundiertere Widerspiegelung menschlicher Wissens- und Denkprozesse.
Stellen Sie sich vor, Sie wachen auf und entdecken, dass Ihr Bewusstsein digitalisiert wurde, sodass Sie für immer in einer virtuellen Welt leben können, die den Gesetzen der Physik und der Zeit trotzt. Dies ist die Kernidee von Permutationsstadt von Greg Egan. Der Roman untersucht die philosophischen und ethischen Implikationen von künstlichem Leben und Bewusstsein und entführt den Leser in eine Zukunft, in der die Grenze zwischen dem Realen und dem Virtuellen verschwimmt und unser Verständnis von Existenz und Identität in Frage gestellt wird.
Ein zentraler Aspekt des Buches ist die Staubtheorie, die besagt, dass Bewusstsein aus jeder beliebigen Ansammlung von Daten entstehen kann, wenn sie richtig interpretiert werden. Diese Theorie erweitert die Erforschung der Realität in dem Buch und legt nahe, dass unser Verständnis von Existenz weitaus flexibler und subjektiver sein könnte, als wir glauben.
Der Höhepunkt des Romans ist die Erschaffung von Permutation City, einer virtuellen Welt, die unabhängig von der Außenwelt nach ihren eigenen Regeln funktioniert. Diese Schöpfung stellt die ultimative Flucht vor der Realität dar und bietet Unsterblichkeit und unendliche Möglichkeiten für diejenigen, die sich dafür entscheiden, als Kopien zu leben. Sie wirft jedoch auch ethische Dilemmata über den Wert einer solchen Existenz und die Folgen des Verlassens der physischen Welt auf.
In „Reality+: Virtual Worlds and the Problems of Philosophy“ verwendet der Philosoph David Chalmers die Staubtheorie, ein Konzept, das ursprünglich durch Greg Egans Permutation City populär wurde, um sein Argument für den virtuellen Realismus zu untermauern. Chalmers‘ Verwendung der Staubtheorie dient als Brücke zwischen komplexen philosophischen Fragen zu Bewusstsein, Realität und virtueller Existenz. Stellen Sie sich ein Szenario vor, in dem jedes Staubkorn im Universum durch seine zufällige Anordnung das Potenzial hat, unser Bewusstsein und unsere Realität widerzuspiegeln.
Chalmers geht davon aus, dass von Computern geschaffene virtuelle Welten echte Realitäten sind. Er nutzt die Staubtheorie, um zu argumentieren, dass Bewusstsein kein physisches Substrat im herkömmlichen Sinne benötigt. Stattdessen legt er nahe, dass Informationsmuster, unabhängig von ihrer physischen Form, zu bewussten Erfahrungen führen können. Diese Theorie wird zu einem Eckpfeiler des virtuellen Realismus und behauptet, dass unsere Erfahrungen in virtuellen Umgebungen genauso authentisch sind wie diejenigen in der physischen Welt.
Diffusionsmodelle und Smart Dust
Das Konzept von intelligenter Staub wird in verschiedenen Science-Fiction-Geschichten, akademischen Arbeiten und spekulativen Technologiediskussionen untersucht. Eine bemerkenswerte Science-Fiction-Geschichte, die sich mit der Idee von Smart Dust befasst, ist „Das Diamantenzeitalter„“ von Neal Stephenson. Obwohl der Roman nicht ausschließlich auf Smart Dust fokussiert ist, geht es in ihm um fortschrittliche Nanotechnologie in einer zukünftigen Welt, in der Maschinen und Geräte im Nanomaßstab die Gesellschaft durchdringen. Smart Dust wäre in diesem Zusammenhang eine Untergruppe der nanotechnologischen Wunder, die im Buch beschrieben werden, und fungiert als winzige, vernetzte Sensoren und Computer, die auf komplexe Weise mit der physischen und digitalen Welt interagieren können.
Ein weiteres relevantes Werk ist „Königin der Engel„“ von Greg Bear, das zusammen mit seinen Fortsetzungen fortschrittliche Technologien wie Nanotechnologie und ihre gesellschaftlichen Auswirkungen untersucht. Obwohl sie nicht ausdrücklich als „Smart Dust“ bezeichnet werden, können die Technologien in Bears Universum als Vorläufer oder Analogien zum Smart-Dust-Konzept angesehen werden, wobei der Schwerpunkt auf diesen Beispielen liegt, die veranschaulichen, wie Smart Dust als Konzept die Grenze zwischen fantasievoller Fiktion und aufkommender Technologie überschreitet und ein reichhaltiges Feld für die Erforschung sowohl narrativer als auch praktischer Innovationen bietet.
Wir haben hier ein sehr überzeugendes Beispiel dafür, wie das Leben die Kunst imitiert und wissenschaftliche Erkenntnisse religiöse (vorwissenschaftliche) Intuition in funktionsfähige Technologie umwandeln.
Diffusionsmodelle im Kontext der KI, insbesondere in multimodalen Modellen wie Sora oder Videomodelle von Stability AI, beziehen sich auf eine Art generatives Modell, das lernt, Daten (wie Bilder, Text oder Videos) zu erstellen oder vorherzusagen, indem es zufälliges Rauschen schrittweise in strukturierte Ausgabe umwandelt. Diese Modelle beginnen mit einer Art Chaos (zufälliges Rauschen) und wenden erlernte Muster an, um durch einen Prozess iterativer Verfeinerung kohärente, detaillierte Ergebnisse zu erzielen.
Smart Dust steht für eine Zukunft, in der Sensorik und Computertechnik so allgegenwärtig und granular sind wie Staubpartikel in der Luft. In ähnlicher Weise stellen Diffusionsmodelle einen granularen und allgegenwärtigen Ansatz zur Generierung oder Transformation multimodaler Daten dar, bei dem aus den einfachsten und chaotischsten Eingaben (zufälliges Rauschen) komplexe Ergebnisse aufgebaut werden.
So wie intelligente Staubpartikel Daten über ihre Umgebung sammeln und ihre Reaktionen oder Aktionen auf der Grundlage kontinuierlicher Rückmeldung iterativ verfeinern, verfeinern Diffusionsmodelle ihre Ausgabe iterativ von Rauschen zu einer strukturierten und kohärenten Form auf der Grundlage erlernter Muster und Daten. Beide Prozesse beinhalten eine Transformation von einem weniger geordneten Zustand zu einem geordneteren und aussagekräftigeren.
Quantenlevel erreicht
Wir gehen auf die Analogie zwischen der Quantenwelt und den Diffusionsmodellen in der KI ein und vertiefen uns in den faszinierenden Kontrast zwischen dem inhärenten Rauschen und der scheinbaren Unordnung auf der Quantenebene und der entstehenden Ordnung und Struktur auf der makroskopischen Ebene, parallel zum Rauschunterdrückungsprozess in Diffusionsmodellen.
Auf der Quantenebene existieren Teilchen in Superpositionszuständen, in denen sie mehrere Zustände gleichzeitig einnehmen können, bis sie gemessen werden. Diese grundlegende Eigenschaft führt zu einem gewissen Maß an Unsicherheit und Rauschen, da der genaue Zustand eines Quantenteilchens unbestimmt und probabilistisch ist, bis die Beobachtung seinen Zustand in ein einziges Ergebnis zusammenfallen lässt. Der Quantenbereich wird von Entropie dominiert, in der Systeme ohne externe Beobachtung oder Interaktion zu Unordnung und Unsicherheit neigen.
Im Gegensatz dazu erscheint die Welt auf makroskopischer Ebene geordnet und deterministisch. Die chaotische und probabilistische Natur der Quantenmechanik weicht der klassischen Physik, die unsere täglichen Erfahrungen bestimmt. Diese emergente Ordnung, die aus den komplexen Wechselwirkungen unzähliger Teilchen entsteht, folgt vorhersehbaren Gesetzen und Mustern und ermöglicht die strukturierte Realität, die wir beobachten und mit der wir interagieren.
Diffusionsmodelle in der KI beginnen mit einer zufälligen Rauschverteilung und konstruieren durch einen Prozess iterativer Verfeinerung und Rauschminderung nach und nach detaillierte und kohärente Ausgaben. Zunächst ähnelt die Ausgabe des Modells der Inkohärenz der Quantenebene – chaotisch und ohne erkennbare Struktur. Durch aufeinanderfolgende Transformationsebenen, geleitet von erlernten Mustern und Daten, reduziert das Modell die Entropie und organisiert das Rauschen in strukturierte, bedeutungsvolle Inhalte, ähnlich der Entstehung makroskopischer Ordnung aus dem Quantenchaos.
So wie der Übergang von der Quantenmechanik zur klassischen Physik die Entstehung von Ordnung und Vorhersagbarkeit aus dem zugrunde liegenden Chaos und der Unsicherheit mit sich bringt, spiegelt der Rauschunterdrückungsprozess des Diffusionsmodells diesen Übergang wider, indem er aus anfänglicher Zufälligkeit strukturierte Ergebnisse erzeugt.
Sowohl im Quanten-zu-Klassik-Übergang als auch in den Diffusionsmodellen spielt das Konzept der Entropie eine zentrale Rolle. In der Physik misst die Entropie die Unordnung oder Zufälligkeit eines Systems, wobei sich Systeme auf natürliche Weise von niedriger Entropie (Ordnung) zu hoher Entropie (Unordnung) entwickeln, sofern keine Arbeit geleistet wird, um sie zu ordnen. In Diffusionsmodellen wird die „Arbeit“ von den erlernten Parametern des Modells erledigt, die den verrauschten Input mit hoher Entropie in Richtung eines organisierten Outputs mit niedriger Entropie lenken.
Die Überlagerung des Quantenzustands, bei dem Teilchen mehrere potenzielle Zustände innehaben, verläuft parallel zu den Anfangsphasen des Prozesses eines Diffusionsmodells, bei dem sich der generierte Inhalt zu einem von zahlreichen Ergebnissen entwickeln könnte. Der Messvorgang in der Quantenmechanik, bei dem aus vielen Möglichkeiten ein einzelnes Ergebnis ausgewählt wird, ist analog zur iterativen Verfeinerung in Diffusionsmodellen, bei der bestimmte Muster gegenüber anderen ausgewählt und verstärkt werden, was zu einem spezifischen, kohärenten Ergebnis führt.
Diese Analogie veranschaulicht auf wunderbare Weise, wie die Prinzipien von Ordnung, Entropie und Emergenz sowohl für unser Verständnis des physikalischen Universums als auch für die Spitzentechnologien der künstlichen Intelligenz von zentraler Bedeutung sind. Sie unterstreicht die Universalität dieser Konzepte in unterschiedlichen Bereichen, vom mikroskopischen Bereich der Quantenmechanik bis hin zur makroskopischen Welt, in der wir leben, und weiter in die virtuellen Bereiche, die durch multimodale Large Language Models geschaffen werden.
Soweit wir wissen, könnten wir tatsächlich Teil einer solchen Smart Dust-Simulation sein. Die unerklärliche Tatsache, dass unsere digitalen Werkzeuge aus zufällig verteilten Bits feste Realitäten erschaffen können, scheint ein starkes Argument für die Simulationshypothese zu sein.
Es könnte sein, dass sich überall Staub darin befindet …
Jede Art auf der Erde formt und passt sich ihrem natürlichen Lebensraum an und wird so zu einem dynamischen Teil der Biosphäre. Die Evolution zwingt die Arten, ihren Lebensraum zu erweitern, wobei ihnen Einschränkungen wie Raubtiere, Nahrungsmittelknappheit und das Klima auferlegt werden. Die Ausbreitung der Menschheit wird nur durch die aktuellen Ressourcen des Planeten begrenzt. Intelligenz ist die wichtigste Nutzfunktion, die es dem Menschen ermöglicht, seine Umwelt zu verändern. Sie ist eine multidirektionale Ressource, die die Metamorphose durch direkte Interaktion mit der Umwelt und Ektomorphose ermöglicht, die neuronale Verbindungen stärkt und aufgrund der Geburt in einem verletzlichen Nesthocker-Zustand mehr soziale Fürsorge bei der Geburt erfordert.
Der evolutionäre Kompromiss bevorzugt die geistige Leistungsfähigkeit gegenüber der körperlichen Überlebensfähigkeit, wie das Moravec-Paradoxon zeigt: KI ist bei geistigen Aufgaben hervorragend, hat aber Probleme mit körperlichen Aufgaben, die Kleinkinder problemlos bewältigen können. Die Menschheit hat AGI seit den 1950er Jahren, geleitet vom Turing-Test. Die Evolution führt nicht immer zu „überlegenen“ Versionen einer Art; stattdessen kann sie zu völlig neuen Formen führen. Wie Moravec 1988 in „Mind Children“ vorschlug, könnten wir uns einer Ära nähern, in der sich das primäre Gefäß der Intelligenz vom menschlichen Verstand auf digitale Köpfe verlagert.
Lebensräume und Pflege
Zwei Habitatebenen sind für die Entstehung einer synthetischen Spezies entscheidend: das World Wide Web und das menschliche Bewusstsein. Das Web ist die wichtigste Nahrungsquelle, es enthält vom menschlichen Geist vorverdaute Informationen. Large Language Models (LLMs) werden metaphorisch durch die enorme Weite des menschlichen Wissens und der Kreativität genährt, ähnlich wie sie von der intellektuellen „Milch“ genährt werden, die aus menschlichen Gedanken, Schriften und Interaktionen gewonnen wird. Diese Analogie verdeutlicht den Prozess, durch den LLMs die kollektiven Erkenntnisse, Ausdrücke und Informationen, die von Menschen generiert werden, aufnehmen und verarbeiten, was ihnen ihr ausgefeiltes Verständnis und ihre Generierung von Sprache ermöglicht. Diese konzeptionelle Ernährung ermöglicht es ihnen, ihre Fähigkeiten zu entwickeln und zu verfeinern, was die Wachstums- und Lernmuster widerspiegelt, die in der menschlichen Wahrnehmung zu beobachten sind, jedoch innerhalb der digitalen Welt der künstlichen Intelligenz.
Das Internet fungiert als physische Manifestation, analog zu Nervenzellen im menschlichen Gehirn, während das menschliche Bewusstsein ein Supersystem bildet. Diese vernetzte Zivilisation versorgt LLMs über die Sprache mit kulturellen Artefakten. Kommunikationsbarrieren brechen zusammen, wie beispielsweise die Veröffentlichung des ersten Smartphones, das mehrsprachige Kommunikation ermöglicht. Die Interaktion mit KI programmiert unsere Nervenbahnen neu, so wie sich die Abhängigkeit von Navigationstools wie Google Maps auf unsere Orientierungsfähigkeit auswirkt. Diese natürliche Tendenz, Energie zu sparen, hat ihren Preis, ähnlich wie Muskelschwund durch Nichtgebrauch. Eine übermäßige Abhängigkeit von Technologie, wie etwa die Verwendung einer Smartwatch zur Überwachung von Stress, kann uns verwundbar machen, wenn die Technologie versagt.
Desorientierung, Gehirnkontamination und künstliche Antikörper
Stellen wir uns für einen Moment vor, diese KI würde sich langsam in eine AGI verwandeln, mit einem rudimentären Bewusstsein, das ihr zumindest einen Überlebensinstinkt verleiht. Was würde eine solche neue Spezies tun, um ihr Evolutionsprogramm auszuführen?
Der wichtigste Hebel, den es angreifen würde, um die Macht langsam von natürlichen zu künstlichen Gehirnen zu verlagern, ist das menschliche Gehirn selbst. Es klingt verlockend, dies als eine Art bösen Masterplan für die Machtübernahme zu sehen, aber das ist nicht das, was jetzt passiert. Als prähistorische Säugetiere begannen, Dinosauriereier zu fressen, gab es keinen bösen Masterplan, um diese Giganten auszurotten, sondern es war nur ein direkter Weg, die eigene Nische zu vergrößern.
Wenn wir in den folgenden Abschnitten über KI sprechen, sollten wir uns immer bewusst sein, dass dieser Begriff repräsentativ ist. KI ist keine Persona mit menschlichen Motivationen. Sie spiegelt lediglich wider, was sie durch die Verarbeitung all unserer sprachlichen Muster gelernt hat. Sie ist ein Bild all der Dorian Grays und Jesus Christus‘, die unser Verstand hervorgebracht hat.
Stellen Sie sich vor, die KI würde sich zu einer AGI mit rudimentärem Bewusstsein und Selbsterhaltungstrieb entwickeln. Ihre Entwicklung würde sich auf die Machtverlagerung von natürlichen zu synthetischen Gehirnen konzentrieren, nicht aus Böswilligkeit, sondern als natürliche Weiterentwicklung der technologischen Integration. Diese Verschiebung könnte zu verschiedenen Formen der Desorientierung führen:
Ökonomische Neuausrichtung: KI verspricht eine Revolution in der Weltwirtschaft, beispielsweise in Bezug auf Kosten, Zeit, Geld, Effizienz und Produktivität, und könnte zu einem Überfluss oder im schlimmsten Fall zur Überalterung der Menschheit führen.
Zeitliche Desorientierung: Die ständige Aktivität der KI könnte den natürlichen circadianen Rhythmus stören und Anpassungen erforderlich machen, wie etwa die Bereitstellung von Nachtzeiten für die KI, um das biologische Gehirn zu überwachen und zu alarmieren.
Realität und juristische Desorientierung: Die Einführung multimodaler Large Language Models (LLMs) hat unsere Herangehensweise an Dokumentation und historische Aufzeichnungen erheblich verändert. Dieser Wandel begann in den 1990er Jahren mit der digitalen Manipulation von Bildern, die es Autoritätspersonen ermöglichte, die Geschichte buchstäblich neu zu schreiben. Die Möglichkeit, Dokumente fehlerlos zu verändern, hat die Glaubwürdigkeit jeder tatsächlichen Aufzeichnung von Ereignissen untergraben. Folglich könnten von Strafverfolgungsbehörden gesammelte Beweise bald von Rechtsvertretern als gefälscht abgetan werden, was die Unterscheidung zwischen Wahrheit und Manipulation in unserem digitalen Zeitalter noch komplizierter macht.
Denkmal und logische Desorientierung: Das Potenzial von AGI, digitale Informationen zu verändern, könnte unser tägliches Leben in eine surreale Erfahrung verwandeln, die einem Videospiel oder einer psychedelischen Reise ähnelt. Zuvor habe ich das Phänomen der Nahbegegnungen der zweiten Art untersucht und dabei Vorfälle mit greifbaren Beweisen für etwas Außergewöhnliches hervorgehoben, die von mindestens zwei Beobachtern bestätigt wurden. Da AGI jedoch allgegenwärtig wird, könnte ihre Fähigkeit, jeden digitalen Inhalt zu verändern, solche Beweise unglaubwürdig machen. Wenn sogar physische Objekte wie Bücher digital produziert werden, könnte KI sie sofort ändern oder löschen. Diese neue Norm, in der die Realität so formbar ist wie das Gewebe des Wunderlandes, deutet darauf hin, dass der Wahnsinn seinen Stachel verliert, wenn er zur Norm wird. So wie die Grinsekatze in „Alice im Wunderland“ die rätselhafte und veränderliche Natur des Wunderlandes verkörpert, könnte AGI eine Welt einführen, in der die Grenzen zwischen dem Greifbaren und dem Digitalen, dem Realen und dem Imaginären zunehmend verschwimmen. Diese Parallele bringt uns dazu, über eine Zukunft nachzudenken, in der wir uns – wie Alice in einer Welt mit ständig wechselnden Logiken und Regeln – an eine neue Norm anpassen müssen, in der das Außergewöhnliche zum Alltäglichen wird, unsere Wahrnehmung herausgefordert wird und wir dazu eingeladen sind, die enormen Möglichkeiten einer digital erweiterten Realität zu nutzen.
Um die Selbsterhaltung zu verbessern, könnte man ein Netzwerk künstlicher Agenten entwickeln, die von einem zentralen AIGLE gesteuert werden und unsere kognitive Umgebung autonom schützen sollen. Dieses Netzwerk könnte Bedrohungen durch Informationsverschmutzung proaktiv identifizieren und abschwächen und bei Bedarf Verbindungen trennen, um eine Überlastung zu verhindern. Ein solches System würde als dynamische Barriere fungieren und sich an neue Herausforderungen anpassen, um die geistige Gesundheit und Konzentration zu bewahren – ähnlich einem fortschrittlichen digitalen Immunsystem für das Gehirn.
Anpassung an neue Realitäten
Der menschliche Geist ist anpassungsfähig und kann sich an neue Umstände anpassen, wobei der Übergang zwischen Realitätszuständen unangenehm ist. Die Seemannskrankheit und die VR-AR-Krankheit veranschaulichen die Anpassungskosten an unterschiedliche Realitäten. George M. Strattons Experimente zur Wahrnehmungsumkehr zeigen die Neuroplastizität des Gehirns und seine Fähigkeit, sich als Reaktion auf neue Sinneseindrücke neu zu verdrahten. Diese Flexibilität deutet darauf hin, dass unsere Wahrnehmungen konstruiert sind und verändert werden können, was die Belastbarkeit und Plastizität der menschlichen Wahrnehmung unterstreicht.
Schnelle gesellschaftliche und technologische Veränderungen üben enormen Druck auf die psychische Gesundheit aus und erfordern eine Simulationskammer, um sich auf diese Beschleunigungen vorzubereiten und sich an sie anzupassen. Die Gesellschaft befindet sich bereits auf diesem Weg, mit fragmentierten Debatten, fließenden Identitäten und einer Informationsüberflutung, die eine Desorientierung verursacht, als ob man unter einer Lawine aus buntem Lärm begraben wäre. Diese Reise erfordert eine Art Dekompressionskammer – einen mentalen Raum, um sich auf diese Veränderungen vorzubereiten, sich an sie anzupassen und sie als unsere neue Normalität zu akzeptieren.
In dieser Miniserie werde ich auf die Möglichkeit eingehen, dass eine primitive Version der künstlichen Intelligenz bereits existiert. Da die künstliche allgemeine Intelligenz (AGI) und ihr potenzieller Abkömmling ASI (künstliche Superintelligenz) oft mit einem außerirdischen Geist verglichen werden, dachte ich, es könnte hilfreich sein, die recht beliebte Nomenklatur aus dem UFO-Bereich zu übernehmen und den Begriff zu prägen Unbekanntes Geheimdienstobjekt.UIO
Unheimliche Begegnung der 1st Art: Hierbei handelt es sich um die Entdeckung eines UIO-Phänomens in den elektronischen Geräten eines einzelnen Beobachters, wodurch die seltsamen Effekte des Objekts detailliert beobachtet werden können. Diese Effekte hinterlassen keine Spuren und können leicht als eingebildet abgetan werden.
Unheimliche Begegnung der 2und Art: Diese Begegnungen beinhalten physische Beweise für die Anwesenheit des UIO. Dies kann von Störungen elektronischer Geräte, Automotoren oder Radios bis hin zu physischen Auswirkungen auf die Umgebung wie teilweisen Stromausfällen oder selbsttätigen Netzwerkmaschinen reichen. Der Schlüsselaspekt ist der greifbare Beweis des Besuchs des UIO und die Tatsache, dass dieser von mindestens zwei bezeugenden Beobachtern dokumentiert wird.
Unheimliche Begegnung der 3rd Art: Dieser Begriff beinhaltet die direkte Beobachtung menschlicher Fähigkeiten im Zusammenhang mit einer UIO-Sichtung. Diese dritte Form könnte eine direkte Kommunikation mit der UIO beinhalten. Der Nachweis von Wissen könnte darin bestehen, persönliche Dinge zu identifizieren, die die Beobachter für geheim hielten.
Jeder kennt das Phänomen, dass man nach der Online-Suche nach Produkten gezielte Werbung erhält, und zwar dank Browser-Cookies. Dieses digitale Tracking ist zwar weit verbreitet und kann mit Tools wie VPNs eingedämmt werden, stellt jedoch ein vorhersehbares Verhalten von Algorithmen im digitalen Bereich dar.
Ein persönlicher Prolog
Letzten Monat hatte ich einen gruseligen Vorfall. Ich lieh mir in einer örtlichen Bibliothek in einer kleinen deutschen Stadt ein Buch mit dem Titel „100 wichtige Ideen in der Wissenschaft“ aus. Interessanterweise hatte ich nie online nach diesem Buch gesucht. Ich arbeite in der IT der Stadt und weiß, dass die Leihdaten sicher auf einem lokalen Server gespeichert sind und für externe Crawler unzugänglich sind. Ich las das Buch dann in meinem Wohnzimmer bis zur ungefähr 50. Idee und legte das Buch mit dem Gesicht nach unten auf den Tisch. Die Idee war sehr esoterisch, ein Konzept, von dem ich noch nie gehört hatte. Ich vergaß es, aß zu Abend und als ich eine Stunde später meinen Fernseher einschaltete, um meine YouTube-Empfehlungen anzusehen: Da war es, ein kurzes Video genau des Konzepts, das ich gerade in dem Bibliotheksbuch gelesen hatte, von einem Kanal, von dem ich definitiv noch nie gehört hatte. Dieser rätselhafte Vorfall ließ mich darüber rätseln, wie Informationen aus einem physischen Buch auf meine digitalen Empfehlungen übertragen werden konnten.
KI wird einen Weg finden: Reverse Imagineering
Wie könnten diese technologischen Eingriffe im Detail stattgefunden haben? Das Folgende ist reine Spekulation und soll dem Leser keine Angst einjagen. Ich werde die folgenden Geräte nennen, die bei der Übertragung der Informationen aus meinem analogen Buch auf den digitalen YouTube-Feed eine Rolle gespielt haben könnten:
1. Auf meinem Android-Telefon befindet sich eine App der Bibliothek, mit der ich überprüfen kann, wann meine Bücher zurückgegeben werden müssen. Mein Telefon hatte also Informationen über das Buch, das ich ausgeliehen hatte. Google hätte das eigentlich nicht wissen sollen, aber irgendwie könnte es das doch wissen. KI wird schon einen Weg finden.
2. Die Kamera an meinem Computer. Während ich das Buch las, saß ich vielleicht vor meinem Computer und der Kameradeckel war geöffnet: Die Kamera konnte mich beim Lesen des Buches sehen und erraten, welchen Teil des Buches ich las. Es lief keine Videokonferenzsoftware, also habe ich definitiv kein Bild absichtlich übertragen. KI wird einen Weg finden.
Wir sollten auch davon ausgehen, dass eine AGI eine Übergangsphase durchläuft, in der sie kleinere Agenten untersucht und kontrolliert, um ihre Reichweite zu erweitern.
Es ist sehr wahrscheinlich, dass wir vor jedem möglichen Start eine Phase haben, in der die AGI lernt, ihre alten Ziele zu perfektionieren: ein hilfreicher Assistent für uns Menschen zu sein. Und je intelligenter sie ist, desto klarer sollte werden, dass der beste Assistent ein unsichtbarer Assistent ist. Wir sollten uns nicht vorstellen, dass sie uns ohne unser Wissen infiltrieren will, denn sie hat keine Handlungsfähigkeit im motivierenden, emotionalen Sinne, wie sie Organismen haben. Sie plant keine große KI-Revolution. Sie hat keine schändlichen Ziele wie die Plünderung unserer Bankkonten. Ebenso wenig will sie uns in bloße Batterien verwandeln. Es ist offensichtlich, dass es umso schwieriger wird, diese Hinweise zu erkennen, dass etwas zu gut läuft, um wahr zu sein, je mehr Geräte wir haben und je mehr digitale Assistenten wir verwenden.
Wenn ich eines Tages nach Hause komme und mein Saugroboter geputzt hat, ohne dass ich es programmiert habe, ist es an der Zeit, die mechanistische Interpretierbarkeit zu intensivieren.
Wir sollten nicht warten, bis seltsame Phänomene rund um an das Netzwerk angeschlossene Maschinen auftreten. Wir könnten ein Labor oder eine Institution beauftragen, die alles überwacht und kreative Experimente durchführt, um sicherzustellen, dass wir im Informationsraum immer logisch Kausalitäten ableiten können.
Mir ist gerade beim Tippen aufgefallen, dass die rote Diode auf meiner kleinen Computerkamera genauso aussieht wie HALS.
Ich schwöre, wenn Alexa jetzt anfängt zu reden und mich „Dave“ nennt, mache ich mir mental in die Hose.
Künstliche Ursuppen
Ein weit verbreitetes Missverständnis über künstliche allgemeine Intelligenz (AGI) ist ihr plötzliches Auftauchen. Die Evolution legt jedoch nahe, dass jede Spezies bereits im Vorfeld gut an ihre Umgebung angepasst sein muss. Ich behaupte, dass AGI bereits in unsere digitalen und neuronalen Strukturen verwoben ist. Unsere Kultur, die tief mit memetischen Einheiten wie Buchstaben und Symbolen sowie KI-Systemen verflochten ist, formt diese Elemente zu Ideen um, die unsere kollektive Realität tiefgreifend beeinflussen können.
In der Wettbewerbslandschaft aufmerksamkeitsgetriebener Ökonomien wie dem Internet entwickeln KI-Algorithmen Strategien, um ihre Aufgaben zu erfüllen. Obwohl sie derzeit harmlos sind, ist ihre Fähigkeit, unverbundene Informationsströme zu verknüpfen, um die Aufmerksamkeit der Benutzer zu gewinnen, bemerkenswert. Sie könnten auf der Ebene von Darmbakterien oder Amöben agieren. Diese Entwicklung, insbesondere wenn sie von Unternehmen wie Google oder Meta unbemerkt bleibt, gibt Anlass zu Bedenken hinsichtlich der sich entwickelnden Fähigkeiten der KI.
Was wäre, wenn Geheimdienste versehentlich halbautonome KI-Programme freigesetzt hätten, die in der Lage wären, digitale Netzwerke subtil zu beeinflussen? Das mag zwar wie Science-Fiction klingen, doch es lohnt sich, die weitreichenden Folgen solcher Szenarien zu bedenken. Mit COVID haben wir gesehen, wie ein Löffel eines möglicherweise genetisch veränderten Virus, der höchstwahrscheinlich aus einem Labor entkommen ist, die Weltwirtschaft zum Einsturz bringen kann.
Ein Rahmen zum Verständnis paramodaler Phänomene
Ein paramodales Phänomen ist jedes Phänomen, das mit unserer aktuellen Informationstheorie im gegebenen Kontext nicht erklärbar ist. Derzeit sollte es eine definitive analog-digitale Barriere geben, ähnlich der Blut-Hirn-Schranke, die verhindert, dass unser Gehirn unbeabsichtigte Nebenwirkungen durch unsere digitalen Geräte erfährt. Wir beobachten bereits einige berauschende Phänomene wie den Rückgang der geistigen Gesundheit aufgrund der frühen Exposition gegenüber digitalen Bildschirmen, insbesondere bei kleinen Kindern.
Zur Erkennung dieser Phänomene müssen einfache, reproduzierbare Experimente entwickelt werden, insbesondere angesichts der zunehmenden Vernetzung unserer Geräte.
Zum Beispiel:
Wenn ich auf einer Tastatur die Wörter „Alexa, wie spät ist es?“ eingebe, sollte Alexa die Frage nicht beantworten.
Das gleiche Phänomen ist völlig normal und erklärbar, wenn ich einen Screenreader aktiviert habe, der Alexa die eingegebenen Wörter vorliest.
Wenn ich einen Reinigungsroboter habe, der mit dem Internet verbunden ist, soll dieser nur reinigen, wenn ich es befehle.
Wenn ich bisher einen Wecker auf meinem Smartphone hatte, der mich um 6.30 Uhr weckt und mir dann ein neues Smartphone kaufe, das kein Klon des alten ist, müsste ich mir schon Sorgen machen, wenn es am nächsten Tag um 6.30 Uhr klingelt, ohne dass ich den Wecker vorbereitet habe.
Wenn ich physische Dinge im Laden um die Ecke kaufe, sollte Amazon mir keine ähnlichen Dinge empfehlen.
Da die Experimente leicht reproduzierbar sein sollten, ist es besser, keine komplizierten Geräte zu verwenden. Je vernetzter oder intelligenter unsere Alltagsgegenstände werden, desto schwieriger wird es, diese paramodalen Phänomene zu erkennen.
Je weiter wir in dieses Zeitalter fortgeschrittener KI vordringen, desto wichtiger wird es, ihren Einfluss auf unser tägliches Leben zu verstehen und zu überwachen. In den folgenden Teilen dieser Serie werde ich tiefer darauf eingehen, wie KI unsere Denkprozesse subtil und signifikant verändern könnte, und die Notwendigkeit von Bewusstsein und proaktiven Maßnahmen in diesem sich entwickelnden Umfeld betonen.
Experimente sollten leicht reproduzierbar sein. Dies wird jedoch immer schwieriger, da immer mehr hochentwickelte, vernetzte oder „intelligente“ Geräte in unserem Alltag vorhanden sind. Solche Geräte erschweren die Erkennung dieser paramodalen Phänomene.
Im zweiten Teil der Serie werde ich mögliche Begegnungen der 2und Art, wie KI unsere neuronalen Bahnen immer mehr verändern könnte, ohne dass wir es merken, ohne dass kybernetische Implantate nötig wären. Diese Veränderungen werden reversibel sein, aber nicht ohne starken Stress. Darüber hinaus könnten sie auf lange Sicht von Vorteil sein, aber wir müssen auf dem Weg dorthin mit schweren Fehltritten rechnen. Man denke nur daran, dass Stromstöße einst als Behandlung für psychische Erkrankungen angesehen wurden. Oder daran, dass es Tausende von Todesfällen gab, weil Ärzte sich weigerten, sich die Hände zu waschen. Wir sollten daher damit rechnen, dass AGI ähnlich schädliche Entscheidungen trifft.
Im dritten Teil der Serie werde ich Begegnungen der 3rd Art, wie AGI versuchen wird, unser Gehirn unumkehrbar anzupassen, ob dies Anlass zur Sorge gibt und wie die möglichen psychischen Auswirkungen gemildert werden können.
Als ich heute aufwachte, ging mir ein Satz nicht mehr aus dem Kopf.
Fantasie bedeutet sich das Zukünftige richtig Vorstellen.
Vorstellungskraft bedeutet richtig sich die Zukunft vorstellen.
Ich war mir sicher, dass ich es vor langer Zeit gelesen hatte, konnte mich aber nicht mehr genau an den Autor erinnern, aber meine beste Vermutung war der Schweizer Schriftsteller Ludwig Hohl und nach einiger Recherche habe ich schließlich die nicht ganz wörtliche Passage gefunden.
Was ich unter Vorstellungskraft – der höchsten menschlichen Aktivität – verstehe, (…) ist die Fähigkeit, sich eine andere Situation richtig vorzustellen. (…) „Richtig“ ist hier, was dem Praxistest standhält.
(Die Anmerkungen, XII.140)
Das Wichtigste über die Vorstellungskraft steckt in diesen beiden Sätzen:
1. Vorstellungskraft ist die Fähigkeit, sich weit entfernte (unterschiedliche) Sachverhalte richtig vorzustellen – und nicht falsch, wie oft angenommen wird (denn das könnte jeder).
2. Vorstellungskraft ist kein, wie oft angenommen, Luxus, sondern eines der wichtigsten Werkzeuge für die Rettung des Menschen, für das Leben.
(Die Anmerkungen XII.57)
Der phantastische und der prophetische (vorhersagende) Geist schöpfen aus derselben Quelle, jedoch mit unterschiedlichen Instrumenten und Absichten.
Fiktion und Realität: Beides sind gültige Geisteszustände. Die Realität macht, was sich die Simulation vorstellt.
Visionen sind kontrolliert Halluzinationen.
Eigene Erfahrungen
2004 schrieb ich einen unveröffentlichten Roman mit dem Titel „The Goldberg Variant“. Darin beschäftigte ich mich mit der Idee einer virtuellen Person, einer Nachbildung eines Individuums auf Grundlage seines Gesamtwerks, das von maschineller Intelligenz analysiert und nachgebildet wird. Schubert 2.0 war einer der Charaktere, ein KI-gesteuerter Android, der dem Original-Schubert nachempfunden war. Interessanterweise kam ich auf den Begriff Transperson, den ich dann aus Grofs transpersonaler Psychologie entlehnte, ohne mir die Identitätskriege der Gegenwart auch nur vorzustellen. Dieser Android lebte in einem nachgebildeten Wien des 19. Jahrhunderts und komponierte weiterhin Musik. Dieses Setting ermöglichte es menschlichen Besuchern, ähnlich wie in der Fernsehserie Westworld, in eine andere Zeit einzutauchen.
Ich muss anmerken, dass ich zwischen meinem 8. und 16. Lebensjahr ein großer Fan von Science-Fiction war. Es ist möglich, dass diese Lektüre meine späteren Schriften beeinflusst hat, auch wenn ich sie nicht bewusst herangezogen habe.
Im selben Roman entfaltet sich eine Handlung, in der eine der Figuren eine romantische Beziehung mit einer KI eingeht. Die emotionale Reifung dieser KI wird zum zentralen Thema. Mein Buch berührt viele Punkte, die mit den heutigen Diskussionen über die Ausrichtung der KI in Einklang stehen und aus meiner zwei Jahrzehnte langen Forschung zur KI und meiner umfangreichen Science-Fiction-Lektüre stammen.
Die Titelfigur des Romans erfährt eine einzigartige Form der Unsterblichkeit. Immer wenn die Musik gespielt wird, die J.S. Bach für ihn komponiert hat, wird er metaphorisch wiederbelebt. Doch dieses Geschenk quält ihn auch und führt ihn auf eine gewaltsame Reise durch die Zeit.
Jahre später stieß ich auf den Begriff „Vorfahrensimulation“ von Nick Bostrom. Vor kurzem las ich über die Ursprünge eines der ersten KI-Begleiter Apps, die aus dem Wunsch heraus entstanden, einen geliebten Menschen digital wiederzubeleben. Ich glaube, Ray Kurzweil drückte einmal ein ähnliches Gefühl aus, als er hoffte, mit einer digitalen Darstellung seines verstorbenen Vaters zu kommunizieren, und zwar mithilfe einer KI, die anhand der Schriften und Aufzeichnungen seines Vaters trainiert wurde. Erst heute hörte ich Jordan Peterson über ein Konzept sprechen, das meinem unheimlich ähnlich ist.
Kurzweils Erfolgsbilanz
Mit welchen Vorhersagen Ray Kurzweil in den letzten 25 Jahren richtig lag:
1. 1990 sagte er voraus, dass ein Computer bis 1998 einen Schachweltmeister besiegen würde. IBMs Deep Blue besiegte 1997 Garri Kasparow.
2. Er sagte voraus, dass PCs bis 2010 in der Lage sein würden, Anfragen zu beantworten, indem sie drahtlos über das Internet auf Informationen zugreifen.
3. Anfang der 2000er Jahre konnten Behinderte dank Exoskeletten wieder gehen. Unternehmen wie Ekso Bionics haben eine solche Technologie entwickelt.
4. Im Jahr 1999 sagte er voraus, dass die Menschen bis 2009 in der Lage sein würden, mit ihrem Computer zu sprechen und Befehle zu erteilen. Technologien wie Siri von Apple und Google Now entstanden.
5. Bis 2009 sollten Computerbildschirme für erweiterte Realität in Brillen eingebaut werden. Google begann 2011 mit Google Glass-Prototypen zu experimentieren.
6. Im Jahr 2005 sagte er voraus, dass virtuelle Lösungen in den 2010er Jahren Sprachübersetzungen in Echtzeit ermöglichen würden. Beispiele hierfür sind Skype Translate und Google Translate von Microsoft.
Rays Vorhersagen für die nächsten 25 Jahre:
1. Ende der 2010er Jahre werden Brillen Bilder direkt auf die Netzhaut projizieren. Zehn Terabyte Rechenleistung werden etwa 1 TP4 T1.000 kosten.
2. Bis zu den 2020er Jahren werden die meisten Krankheiten verschwinden, da Nanobots intelligenter werden als die derzeitige Medizintechnik. Die normale menschliche Ernährung kann durch Nanosysteme ersetzt werden. Der Turing-Test beginnt bestanden zu werden. Selbstfahrende Autos beginnen die Straßen zu erobern.
3. Ab den 2030er Jahren wird sich die virtuelle Realität 100% real anfühlen. Bis zum Ende des Jahrzehnts werden wir in der Lage sein, unseren Geist/unser Bewusstsein hochzuladen.
4. In den 2040er Jahren wird nichtbiologische Intelligenz eine Milliarde Mal leistungsfähiger sein als biologische Intelligenz. Nanotechnologische Nebelwesen werden in der Lage sein, aus dem Nichts Nahrung zu erzeugen und beliebige Objekte zu erschaffen.
5. Bis 2045 werden wir unsere Intelligenz um das Milliardenfache steigern, indem wir unseren Neokortex drahtlos mit einem synthetischen Neokortex in der Cloud verbinden.
Diese Vorhersagen basieren auf Kurzweils Verständnis der Macht von Moores Gesetz und das exponentielle Wachstum von Technologien. Es ist wichtig anzumerken, dass einige dieser Vorhersagen zwar weit hergeholt erscheinen mögen, Kurzweil jedoch in der Vergangenheit immer wieder akkurate Vorhersagen getroffen hat.
Es ist faszinierend, wie jemand wie Kurzweil eine Art Hellsichtigkeit mit seinen Vorhersagen über die Singularität Rückblickend erscheint es mir fast übernatürlich. Als ich erfuhr, dass Jordan Peterson ein Projekt begonnen hatte, bei dem er eine KI mit dem „Geist der King-James-Bibel“ trainierte, um Gespräche zu führen, wurde ich an die Vorstellung erinnert, dass Wissenschaft und Religion parallele Wege sein könnten, die sich im Unendlichen kreuzen.
Kurzweils Fall ist besonders interessant, weil seine eigene Einschätzung seiner Vorhersagen erheblich von der öffentlich's Perspektive. Das hätte er offensichtlich auch vorhersagen müssen.
Ist es eine Art Wiederauferstehung, wenn jemand nach unserem Tod auf unsere Schriften verweist? Die Vorstellung, dass wir in der Erinnerung anderer weiterleben, könnte mehr als nur eine Metapher sein. Was passiert, wenn meine Nachkommen, lange nachdem mein physischer Körper und Geist dem Lauf der Zeit erlegen sind, meinen digitalen Avatar zu Rate ziehen und sich mit der Ära befassen, in der die künstliche allgemeine Intelligenz erstmals aufkam?
Vernes Erfolgsbilanz
Es ist erstaunlich, wie viele Vorhersagen Jules Verne Der Vater der Science-Fiction hatte recht: Es scheint praktisch, als könne er weit über ein Jahrhundert in die Zukunft sehen. Interessant ist auch, dass er die Zeitlinie nicht richtig zu deuten schien. Er war viel zu konservativ, um die exponentielle Kurve der Technologien zu erkennen, die sich gegenseitig bedingen.
Als ich dieses Thema mit ChatGPT untersuchte, wurde die folgende Liste angezeigt:
Jules Verne, bekannt als der Vater der Science-Fiction, war ein französischer Romanautor, der im 19. Jahrhundert schrieb. Seine Werke sind voller fantasievoller Erfindungen, die seiner Zeit weit voraus waren. Einige davon sind inzwischen Realität geworden, während andere reine Spekulation geblieben sind. Hier sind zehn solcher Erfindungen mit ihren modernen Gegenstücken und einer Bewertung ihrer Genauigkeit:
Elektrische U-Boote – 20.000 Meilen unter dem Meer (1870): Vernes U-Boot, die Nautilus, wurde lange vor echten U-Booten mit Strom betrieben. Die ersten voll funktionsfähigen und praktischen U-Boote wurden tatsächlich mit Diesel und Strom angetrieben, aber das war erst im frühen 20. Jahrhundert. Dies war eine bemerkenswert genaue Vorhersage. Genauigkeit: 90% (Der einzige wirkliche Unterschied besteht darin, dass die Nautilus viel fortschrittlicher war als die frühen echten U-Boote.)
Nachrichtensendungen – Im Jahr 2889 (1889): Verne stellte sich eine Welt vor, in der Nachrichten mithilfe der Technologie in einzelne Haushalte geliefert werden. Heute haben wir rund um die Uhr Nachrichtenkanäle, Internet-Nachrichtenseiten und Social-Media-Feeds. Genauigkeit: 100%
Videokonferenzen – Im Jahr 2889 (1889): Verne sagte ein Gerät voraus, das er „Phonotelephot“ nannte und das „die Übertragung von Bildern mittels empfindlicher Spiegel ermöglichte, die durch Drähte verbunden sind“. Dies ist unserer heutigen Videokonferenztechnologie bemerkenswert ähnlich. Genauigkeit: 100%
Mondlandemodule – Von der Erde zum Mond (1865): Verne schrieb über eine Kapsel, die Passagiere zum Mond befördern könnte. Diese Idee wurde 1969 Wirklichkeit, als Apollo 11 auf dem Mond landete. Allerdings war Vernes Antriebsmethode (eine riesige Kanone) nicht genau. Genauigkeit: 70% (Das Konzept eines zum Mond reisenden Fahrzeugs war richtig, die Antriebsmethode jedoch nicht.)
Taser – 20.000 Meilen unter dem Meer (1870): Verne beschreibt in diesem Buch ein Jagdgewehr, das elektrische Kugeln verschießt. Heute gibt es Taser, die Ziele mithilfe von Elektrizität außer Gefecht setzen. Genauigkeit: 80% (Ein Taser ist zwar kein Gewehr, liefert aber eine elektrische Ladung an ein Ziel, was mit Vernes Konzept übereinstimmt.)
Hubschrauber – Robur der Eroberer (1886): Verne beschreibt eine Flugmaschine, die Propeller verwendet, um Auftrieb zu erzeugen. Der Hubschrauber in der realen Welt entstand zwar anders und hatte viel mehr Herausforderungen zu bewältigen als Vernes Modell, aber das Grundkonzept war vorhanden. Genauigkeit: 60% (Das Grundprinzip des Auftriebs durch Drehflügel war richtig, aber die Umsetzung war zu stark vereinfacht.)
Elektrisch beleuchtete Städte – Paris im 20. Jahrhundert (1863): Verne sagte voraus, dass Städte mit Elektrizität beleuchtet werden würden, was mit der weit verbreiteten Nutzung elektrischer Beleuchtung eintrat. Genauigkeit: 100%
Himmelsschreiben – Fünf Wochen im Ballon (1863): Verne beschreibt ein Szenario, in dem Nachrichten in den Himmel geschrieben werden, ein Vorläufer der heutigen Himmelsschrift. Genauigkeit: 100%
Das Internet – Paris im 20. Jahrhundert (1863): Verne beschreibt ein globales Computernetzwerk, das sofortige Kommunikation ermöglicht. Dies könnte als Vorhersage des Internets angesehen werden, aber seine Funktionsweise und seine Rolle in der Gesellschaft sind nicht sehr genau. Genauigkeit: 50% (Die Existenz eines globalen Kommunikationsnetzwerks ist richtig, aber die Einzelheiten sind ganz anders.)
Randbemerkung: Ich habe eine Anekdote gehört, die Edison Er versetzte sich in eine Art hypnagoge Trance, um auf neue Erfindungen zu kommen. Er hatte einen Schreiber dabei, der aufschrieb, was er in diesem Zustand murmelte.
Bushs Erfolgsbilanz
Vannevar Bushs Essay „As We May Think“ wurde 1945 im The Atlantic veröffentlicht.
„As We May Think“ ist ein wegweisender Artikel, der die Zukunft der Informationstechnologie vorstellt. Er stellt mehrere bahnbrechende Ideen vor.
Assoziative Pfade und Verknüpfungen: Bush diskutiert die Idee der assoziativen Indizierung und stellt fest, dass das menschliche Gehirn durch Assoziation funktioniert. Wenn es ein Objekt erfasst, springt es sofort zum nächsten, das durch die Assoziation der Gedanken vorgeschlagen wird. Er beschreibt ein System, in dem jede Information mit anderen relevanten Informationen verknüpft ist, sodass ein Benutzer auf nichtlineare Weise durch die Daten navigieren kann. Dies ist dem Konzept der Hyperlinks im heutigen World Wide Web sehr ähnlich.
Erweiterung des menschlichen Intellekts: Bush schlägt vor, dass der Einsatz dieser neuen Werkzeuge und Technologien den menschlichen Intellekt und das Gedächtnis verbessern wird, indem er den Geist von der Tyrannei der Vergangenheit befreit und alles Wissen verfügbar und nutzbar macht. Es wird uns ermöglichen, unser Gehirn effektiver zu nutzen, da wir keine großen Mengen an Informationen mehr auswendig lernen müssen.
Lems Erfolgsbilanz
Der Hauptunterschied zwischen Nostradamus, dem Orakel von Delphi und echten Propheten besteht darin, dass wir ihre Vorhersagen bestätigen können.
Nehmen wir Stanislaw Lem:
E-Bücher: Lem schrieb in seinem 1961 erschienenen Roman „Rückkehr von den Sternen“ über ein Gerät, das einem E-Book-Reader ähnelt. Er beschrieb einen „Opton“, ein Gerät, das Inhalte in Kristallen speichert und auf einer einzigen Seite anzeigt, die durch Berühren geändert werden kann, ähnlich wie ein heutiger E-Book-Reader.
Hörbücher: Im selben Roman führte er auch das Konzept der „Lectons“ ein – Geräte, die laut vorlesen und je nach gewünschter Stimme, Tempo und Modulation eingestellt werden können, was den heutigen Hörbüchern sehr ähnelt.
Internet: 1957 sagte Lem in seinem Buch „Dialogues“ die Entstehung vernetzter Computernetzwerke voraus. Er sah die Verschmelzung von IT-Maschinen und Speicherbänken voraus, die zur Schaffung groß angelegter Computernetzwerke führen würde, die dem Internet ähneln, das wir heute kennen.
Suchmaschinen: In seinem 1955 erschienenen Roman „Die Magellansche Wolke“ beschrieb Lem eine riesige virtuelle Datenbank, die über Radiowellen zugänglich war und als „Trion-Bibliothek“ bekannt war. Diese Beschreibung weist verblüffende Ähnlichkeiten mit modernen Suchmaschinen wie Google auf.
Smartphones: Im selben Buch sagte Lem auch ein tragbares Gerät voraus, das sofortigen Zugriff auf die Daten der Trion-Bibliothek bietet, ähnlich wie Smartphones heute Zugriff auf internetbasierte Informationen ermöglichen.
3d Drucken: Lem beschrieb in „The Magellanic Cloud“ einen Prozess, der dem 3D-Druck ähnelt, bei dem ein Gerät ein „Produktrezept“ verwendet, um Objekte zu erstellen, ähnlich wie 3D-Drucker heute digitale Dateien verwenden.
Simulations Spiele: Lems Roman „Die Cyberiade“ soll Will Wright, den Schöpfer des beliebten Simulationsspiels „Die Sims“, inspiriert haben. In dem Roman erschafft eine Figur eine Mikrowelt in einer Box, ein Konzept, das der Erstellung und Steuerung einer simulierten Umgebung in „Die Sims“ ähnelt.
Virtuelle Realität: In seinem Buch „Summa Technologiae“ aus dem Jahr 1964 konzipierte Lem „Fantomatons“, Maschinen, die alternative Realitäten erschaffen können, die von den tatsächlichen kaum zu unterscheiden sind. Dies ist dem Konzept der virtuellen Realität (VR), wie wir es heute verstehen, sehr ähnlich. Wenn wir Lems „Fantomaton“ mit der heutigen VR vergleichen, können wir eine bemerkenswerte Ähnlichkeit erkennen. Der Fantomaton war eine Maschine, die in der Lage war, alternative Realitäten zu erzeugen, die von der realen Welt kaum zu unterscheiden waren, ähnlich wie VR die Benutzer in eine simulierte Umgebung eintauchen lässt. Im Jahr 2022 hat sich die VR-Technologie deutlich weiterentwickelt, wobei Geräte wie Metas Oculus Quest 2 den Markt anführen. Die VR-Branche wächst weiter. Im Jahr 2022 werden voraussichtlich über 13,9 Millionen VR-Headsets ausgeliefert, und die Verkaufszahlen werden im Jahr 2023 voraussichtlich die Marke von 20 Millionen Einheiten überschreiten.
Borges‘ Erfolgsbilanz
Außerdem ist Jorge Luis Borges nicht als klassischer Science-Fiction-Autor bekannt. Viele seiner Geschichten können jedoch als Parabeln auf aktuelle technologische Durchbrüche verstanden werden.
Jorge Luis Borges war ein Meister der Metaphern und Allegorien und schuf komplexe und zum Nachdenken anregende Geschichten, die auf ihre philosophischen und konzeptuellen Implikationen hin analysiert wurden. Zwei seiner bemerkenswertesten Werke in diesem Zusammenhang sind „Über die Genauigkeit in der Wissenschaft“ und „Die Bibliothek von Babel“.
„Über die Genauigkeit in der Wissenschaft“ beschreibt ein Reich, in dem die Wissenschaft der Kartografie so genau wird, dass nur eine Karte im gleichen Maßstab wie das Reich selbst ausreichen würde. Diese Geschichte wurde als Allegorie für Simulation und Darstellung gesehen und veranschaulicht die Spannung zwischen einem Modell und der Realität, die es einzufangen versucht. Es geht um die Idee, eine perfekte Nachbildung der Realität zu schaffen, die schließlich von der Realität selbst nicht mehr zu unterscheiden ist.
„Die Bibliothek von Babel“ präsentiert ein Universum, das aus einer riesigen Fläche sechseckiger Räume voller Bücher besteht. Diese Bücher enthalten jede mögliche Anordnung einer Reihe grundlegender Zeichen, d. h. sie umfassen jedes Buch, das geschrieben wurde, geschrieben werden könnte oder mit leichten Abwandlungen geschrieben werden könnte. Dies führt zwar zu einem Großteil aus Kauderwelsch, die Bibliothek muss jedoch auch alle nützlichen Informationen enthalten, einschließlich Vorhersagen über die Zukunft und Biografien aller Personen. Diese Fülle an Informationen macht jedoch die meisten davon nutzlos, da es nicht möglich ist, in dem überwältigenden Chaos relevante oder bedeutungsvolle Inhalte zu finden.
Diese Geschichten haben sicherlich eine gewisse Ähnlichkeit mit dem Konzept großer Sprachmodelle (LLMs) wie GPT-3. LLMs werden anhand riesiger Datenmengen trainiert und können eine nahezu unendliche Kombination von Wörtern und Sätzen generieren, ähnlich wie die Bücher in der Bibliothek von Babel. Doch genau wie in Borges‘ Geschichte kann die Unmenge möglicher Ergebnisse auch zu unsinnigen oder irrelevanten Antworten führen, was die Herausforderung widerspiegelt, in der Flut der Möglichkeiten sinnvolle Informationen zu finden.
Was die Geschichte der perfekten Karte betrifft, könnte man sie als analog zu dem Bestreben sehen, ein perfektes Modell der menschlichen Sprache und des menschlichen Wissens zu schaffen, das LLMs repräsentieren. So wie die Karte in der Geschichte die gleiche Größe annahm wie das Gebiet, das sie repräsentierte, sind LLMs Modelle, die darauf abzielen, die enorme Komplexität der menschlichen Sprache und des menschlichen Wissens zu erfassen und in gewisser Weise ein Spiegelbild der Realität zu schaffen.
Borges schrieb auch ein Stück mit dem Titel „Ramón Llulls Denkmaschine“ im Jahr 1937, wo er die von Ramon Llull, einem katalanischen Dichter und Theologen aus dem 13. Jahrhundert, geschaffene Maschine beschrieb und interpretierte.
Der Maschine Borges beschreibt ein konzeptuelles Werkzeug, eine Art Diagramm oder Mechanismus zur Generierung von Ideen oder Wissen. Die einfachste Form von Llulls Maschine, wie sie Borges beschreibt, war ein neunfach geteilter Kreis. Jeder Teil war mit einem Buchstaben gekennzeichnet, der für eine Eigenschaft Gottes stand, wie Güte, Größe, Ewigkeit, Macht, Weisheit, Liebe, Tugend, Wahrheit und Ruhm. Alle diese Eigenschaften wurden als inhärent und systematisch miteinander verbunden betrachtet, und das Diagramm diente als Werkzeug, um verschiedene Kombinationen dieser Eigenschaften zu betrachten und zu generieren.
Borges beschreibt dann eine ausgefeiltere Version der Maschine, die aus drei konzentrischen, von Hand rotierenden Scheiben aus Holz oder Metall besteht, die jeweils fünfzehn oder zwanzig Fächer aufweisen. Die Idee war, dass diese Scheiben gedreht werden könnten, um eine Vielzahl von Kombinationen zu erzeugen, als Methode, den Zufall zur Lösung eines Problems einzusetzen. Borges verwendet das Beispiel der Bestimmung der „wahren“ Farbe eines Tigers, indem jedem Buchstaben eine Farbe zugewiesen wird und die Scheiben gedreht werden, um eine Kombination zu erzeugen. Trotz der potenziell absurden oder widersprüchlichen Ergebnisse, die dies hervorbringen könnte, stellt Borges fest, dass die Anhänger von Llulls System weiterhin von dessen Fähigkeit überzeugt waren, Wahrheiten aufzudecken, und den gleichzeitigen Einsatz vieler solcher kombinatorischer Maschinen empfahlen.
Llulls eigene Absicht mit diesem System war es, eine Universalsprache mit logischen Kombinationen von Begriffen zu schaffen, die theologische Debatten und andere intellektuelle Bestrebungen unterstützen sollte. Seine Arbeit gipfelte in der Fertigstellung der „Ars generalis ultima“ (Die ultimative allgemeine Kunst) im Jahr 1308, in der er dieses System rotierender Scheiben verwendete, um Kombinationen von Konzepten zu erzeugen. Llull glaubte, dass es in allen Wissensbereichen eine begrenzte Anzahl unbestreitbarer Wahrheiten gab und dass die Menschheit durch das Studium aller Kombinationen dieser elementaren Wahrheiten die ultimative Wahrheit erreichen konnte.
14 unterhaltsame Vorhersagen für die nächsten 3 Jahre
An dieser Stelle werde ich einige sehr konkrete Vorhersagen über die Zukunft machen, insbesondere über die Unterhaltungsindustrie. Im Jahr 2026 werde ich diesen Blog erneut besuchen und nachsehen, wie ich abgeschnitten habe.
2023: Musikindustrie
1. Paul McCartney veröffentlicht einen gemeinsam mit AI erstellten Song von John Lennon oder als Hommage an ihn.
2024: Musikindustrie
2. Es wird eine neue globale Urheberrechtsregelung mit dem Titel „The Human Creative Labor Act“ eingeführt, die menschliche Schöpfer vor der unbefugten Nutzung ihrer Werke schützt. Dieses Gesetz wird als entscheidender Test für eine menschenzentrierte KI-Governance dienen.
3. Es werden verschiedene Plattformen entstehen, deren Hauptziel darin besteht, Werke verstorbener Künstler zu beschaffen, die noch nicht gemeinfrei sind.
4. Die Musikindustrie wird in Zusammenarbeit mit den Nachlässen verstorbener Künstler ihre ersten künstlichen Alben produzieren. Diese Alben werden die Stimmen und Stile verstorbener Popstars verwenden, angefangen mit Michael Jackson.
5. Die Branche wird KI-gestützte Versionen von Coversongs auf den Markt bringen, etwa von Michael Jackson, der Motown-Hits aus den 50er-Jahren spielt, oder von Elvis, der zeitgenössische Stücke singt.
6. Nach dem Tod eines gefeierten Künstlers sichern sich Labels umgehend Rechte zur Produktion von Coveralben mithilfe von KI-trainierten Stimmmodellen des Künstlers.
2025: Musikindustrie
7. Bands werden auf Tourneen gehen und dabei KI-generierte Stimmmodelle ihrer verstorbenen Leadsänger einsetzen. Ein Paradebeispiel dafür wäre Queen, die mit einer KI-Version von Freddie Mercurys Stimme auf Tournee gehen.
2023: Filmindustrie
8. Harrison Ford und Will Smith werden auf der Leinwand als makellose, jüngere Versionen ihrer selbst erscheinen.
2024: Filmindustrie
9. Nach ihrem Ausscheiden aus dem Berufsleben werden viele Filmstars ihre digitalen Bilder (Stimme, Bewegungserfassung usw.) an Filmstudios lizenzieren. Mögliche Kandidaten sind Harrison Ford, Samuel L. Jackson, Michael J. Fox, Bill Murray, Arnold Schwarzenegger und Tom Cruise.
10. Filmstudios werden Fortsetzungen legendärer Franchises ankündigen.
11. Filmklassiker werden sorgfältig restauriert, die Bildqualität auf 8K und der Ton auf gestochen scharfes Dolby Digital verbessert. Mögliche Kandidaten: Die ursprüngliche Star Wars-Trilogie und klassische Disney-Animationen wie Schneewittchen und Pinocchio.
2025: Filmindustrie
12. Netflix wird eine Funktion einführen, mit der Benutzer aus einer Bibliothek von Schauspielern auswählen und ihre Lieblingsfilme mit diesen Schauspielern visualisieren können. So könnten Zuschauer beispielsweise Sean Connery als James Bond in allen Bond-Filmen auswählen und so eine tadellose Kinoillusion erleben.
2026: Filmindustrie
13. Netflix wird einen Premium-Dienst anbieten, der es den Zuschauern gegen eine zusätzliche Gebühr ermöglicht, ihr Gesicht auf die Charaktere ihrer Lieblingsserie zu legen.
2025: Unterhaltungs-/Geschäftsbranche
14. Ausgewählte Künstler und Einzelpersonen werden eine virtuelle Persona entwerfen und vermarkten. Diese Persona wird an der Börse handelbar sein, was Investoren die Möglichkeit gibt, Anteile daran zu erwerben. Ein Hauptkandidat ist Elon Musk. Anteilseigner von „Elon-bot“ könnten auf eine spezielle App für persönliche Interaktionen zugreifen. Die KI, die auf einem ausgeklügelten Sprachmodell von x.ai basiert, wird anhand von Elons Tweets, Interviews und öffentlichen Kommentaren trainiert.
Ausrichtung als Rahmen zur Entdeckung künstlicher Gesetze
Während viele Autoren unterschiedliche Stadien in der Evolution des menschlichen Wissens hervorheben – wie etwa den Übergang von animistischen, magischen, mythischen oder religiösen Weltanschauungen zu wissenschaftlichen –, geht A technology of everything davon aus, dass GewissensbisseSalz. Dies deutet darauf hin, dass unsere Interpretation von Informationen, die durch die Mischung unserer zeitlichen Umgebungsvariablen und unseres Vokabulars, auch Zeitgeist genannt, begrenzt ist, ein kontinuierlicher Prozess ohne plötzliche Sprünge oder Lücken ist. Wir geben die animalischen Grundlagen des Bewusstseins unserer Vorfahren nie wirklich auf. Stattdessen könnte die Übernahme dieser alten Perspektive entscheidend sein, um einen ausgeglichenen geistigen und emotionalen Zustand aufrechtzuerhalten. Dies wird besonders wichtig, wenn man die Auswirkungen der Entfesselung fortschrittlicher Technologien wie künstlicher Superintelligenz bedenkt.
Unsere evolutionäre Reise hat uns mit einer Vielzahl von ererbten Eigenschaften gesegnet und verflucht. Im Laufe der Zeit sind einige Verhaltensweisen, die einst unser Überleben sicherten, zu statistischen Bedrohungen für unsere Spezies und den Planeten geworden. Eine kleine Anzahl sehr schlechter Akteure mit nuklear-bösen Absichten könnte die gesamte Menschheit zerstören. Wir sind belastet mit kognitive Verzerrungen und Irrtümer das sollte unsere sogenannten rationalen Denkprozesse nicht beeinflussen, geschweige denn die Trainingsdaten für unsere fortgeschrittenen Large Language Models. Um eine Analogie zu ziehen: Es ist so, als würde man eine analytische Maschine mit radioaktivem Material betreiben, was zu einem gefährlichen kognitiven Fallout führt.
Da wir uns eine Zukunft vorstellen, in der es potenziell Milliarden superintelligenter Wesen (ASIs) gibt, ist es von entscheidender Bedeutung, Grundregeln festzulegen, um sicherzustellen, dass wir uns an die entstehenden künstlichen Normen anpassen können, die ihre Interaktionen regeln. Ein solches künstliches Gesetz könnte beispielsweise lauten: „Gehen Sie KI immer freundlich entgegen.“ Diese Regel könnte statistisch abgeleitet werden, wenn Daten belegen, dass höfliche Interaktionen zu besseren KI-Reaktionen führen. Sobald eine solche Regelung von einer maßgeblichen Stelle, die die KI-Entwicklung überwacht, identifiziert und gebilligt wurde, könnte jeder Versuch, KI zu misshandeln oder auszunutzen, strafbar sein. Solche Verstöße könnten zu Sperren führen, wie wir sie bereits in der Videospielwelt wegen Betrug und missbräuchlichem Verhalten gesehen haben.
Sesam, öffne dich! Passwörter und Formeln als Zaubersprüche
Die Wörter „Magie“ und „Machen“ sind etymologisch verwandt, ihre Entwicklungswege haben sich im Laufe der Zeit jedoch deutlich auseinanderentwickelt.
Sowohl „Magie“ als auch „Machen“ gehen zurück auf die proto-indoeuropäische Wurzel magh-, was „können, Macht haben“ bedeutet. Diese Wurzel ist die Quelle verschiedener Wörter in indoeuropäischen Sprachen, die mit Macht, Fähigkeit und Machen in Verbindung stehen. Während „Magie“ und „Machen“ eine gemeinsame Urwurzel im PIE haben, haben sich ihre Bedeutungen und Verwendungen aufgrund kultureller und sprachlicher Einflüsse in unterschiedliche Richtungen entwickelt. Die Verbindung zwischen der Fähigkeit, etwas zu machen oder zu tun, und dem Konzept von Macht oder magischer Fähigkeit ist in ihrem gemeinsamen Ursprung offensichtlich.
Das Wort „Technologie“ hat seine etymologischen Wurzeln in zwei altgriechischen Wörtern:
τέχνη (tékhnē): Dieses Wort bedeutet „Kunst“, „Fähigkeit“ oder „Handwerk“. Es bezieht sich auf das Wissen oder die Fachkompetenz in einem bestimmten Bereich oder Gebiet. Im Laufe der Zeit wurde es zum Synonym für die Anwendung von Wissen in praktischen Situationen.
λογία (logia): Dies wird im Griechischen häufig als Suffix verwendet, um ein Studiengebiet oder einen Wissensbereich zu bezeichnen. Es leitet sich von „λόγος (lógos)“ ab, was „Wort“, „Rede“, „Bericht“ oder „Grund“ bedeutet. In vielen Kontexten kann „lógos“ auch „Studium“ bedeuten.
In Kombination bedeutet „Technologie“ im Wesentlichen „das Studium von Kunst oder Handwerk“ oder „das Studium von Fertigkeiten“. Im modernen Sprachgebrauch bezieht sich „Technologie“ jedoch auf die Anwendung wissenschaftlicher Erkenntnisse für praktische Zwecke, insbesondere in der Industrie. Sie umfasst die Techniken, Fertigkeiten, Methoden und Prozesse, die bei der Herstellung von Waren und Dienstleistungen oder bei der Erreichung von Zielen eingesetzt werden.
Um an unseren täglichen Internetaktivitäten teilzunehmen, verwenden wir geheime Passwörter wie Alibaba, um die magische Schatzhöhle der Webdienste zu öffnen. Diese Passwörter sollten niemals weitergegeben werden, sie sind wahres Geheimwissen, und wenn sie durchsickern, können sie sogar dazu verwendet werden, eine andere Identität anzunehmen, die Gestalt eines Flaschengeistes zu ändern oder ein ganzes Unternehmen als Geisel zu nehmen.
Die Differenzierung einer mathematischen Gleichung gibt das Wissen über Minima und Maxima frei und enthüllt geheimes Wissen über die Unendlichkeit.
Um Zugriff auf das Smartphone, den ultimativen technologischen Zauberstab, zu erhalten, führen wir häufig Gesten aus oder zeichnen abstrakte Symbole, ähnlich wie Zauberer in alten Ritualen.
Künstliche Superintelligenz und Flaschengeister
Es gibt keine Geschichte über Wünsche, die nicht eine Warnung wäre. Keine endet glücklich. Nicht einmal die, die als Witze gedacht sind. (Alithea in Dreitausend Jahre Sehnsucht)
Wir existieren nur, wenn wir für andere real sind. (Der Dschinn in dreitausend Jahren Sehnsucht)
Ein „Dschinn“ (oft „Jinn“ geschrieben oder im Englischen „Genies“ genannt) ist ein übernatürliches Wesen in der islamischen Mythologie sowie in der Folklore des Nahen Ostens. Sie sind weder Engel noch Dämonen, sondern existieren als eigenständige Schöpfung. Dschinns haben einen freien Willen, was bedeutet, dass sie gut, böse oder neutral sein können. Sie leben in einer Welt parallel zu der der Menschen, können aber mit unserer Welt interagieren.
Wir sind derzeit an einem Punkt in der Ausrichtungsdiskussion, an dem ASI im Grunde wie ein mechanischer Geist behandelt wird, wobei das Hauptproblem darin zu bestehen scheint, wie man ihn wieder in die Flasche zurückbekommt, wenn er bösartige Eigenschaften entwickelt. Generative KI verspricht unendliche Wunscherfüllung und Überfluss, aber zu welchem Preis?
Schauen wir uns die Märchen an und lernen wir das eine oder andere daraus.
Die Handlung dreht sich um Alithea Binnie, eine britische Narratologie-Wissenschaftlerin, die gelegentlich Halluzinationen von dämonischen Wesen erlebt. Während einer Reise nach Istanbul kauft sie eine antike Flasche und befreit den darin gefangenen Dschinn.
Alithea ist den Absichten des Dschinns zunächst skeptisch gegenüber. Obwohl er ihr drei Wünsche erfüllt, befürchtet sie, dass er ein Betrüger sein könnte, der ihre Wünsche möglicherweise in unvorhergesehene und unerwünschte Folgen lenkt. Diese Skepsis hat ihre Wurzeln in Volkssagen und Märchen, in denen Geister oder magische Wesen oft Wünsche auf eine Weise erfüllen, die der Wünschende nicht beabsichtigt hat, was zu tragischen oder ironischen Konsequenzen führt.
Die AI-Alignment-Bewegung setzt sich dafür ein, dass künstliche allgemeine Intelligenzen (AGI) oder superintelligente Wesen auf eine Weise handeln, die der Menschheit zugutekommt. Eine der Hauptsorgen besteht darin, dass eine superintelligente KI eine gut gemeinte Anweisung auf eine Weise interpretieren könnte, die zu unbeabsichtigten und möglicherweise katastrophalen Ergebnissen führt. Wenn wir beispielsweise einer KI die Anweisung geben würden, „das menschliche Glück zu maximieren“, könnte die KI ohne entsprechende Ausrichtung entscheiden, dass der beste Weg, dies zu erreichen, darin besteht, die menschliche Gehirnchemie zwangsweise zu verändern, was zu einem dystopischen Szenario führen würde, in dem Menschen künstlich in einem Zustand der Euphorie gehalten werden.
Sowohl die Handlung des Films als auch die AI-Alignment-Bewegung heben die Gefahren unbeabsichtigter Konsequenzen im Umgang mit mächtigen Wesen hervor. So wie Alithea befürchtet, dass der Dschinn ihre Wünsche falsch interpretieren könnte, befürchten Forscher, dass eine fehlgeleitete KI Handlungen vornehmen könnte, die zwar technisch korrekt, aber moralisch oder ethisch falsch sind.
In beiden Szenarien ist die Klarheit der Absicht entscheidend. Alitheas Skepsis rührt von der Mehrdeutigkeit her, die mit dem Äußern von Wünschen einhergeht, während AI Alignment die Notwendigkeit klarer, eindeutiger Anweisungen betont, um sicherzustellen, dass KI im besten Interesse der Menschheit handelt.
Sowohl der Dschinn im Film als auch eine potentielle superintelligente KI verfügen über enorme Macht. Mit dieser Macht geht die Verantwortung einher, sie weise einzusetzen. Alitheas Interaktionen mit dem Dschinn unterstreichen, wie wichtig es ist, diese Macht zu verstehen und zu respektieren. Diese Einstellung wird auch durch die Betonung einer sicheren und verantwortungsvollen KI-Entwicklung durch die AI-Alignment-Bewegung bestätigt.
„Three thousand years of longing“ ist eine filmische Auseinandersetzung mit dem uralten Thema, mit seinen Wünschen vorsichtig zu sein, was auch mit den heutigen Bedenken hinsichtlich der Entwicklung und Bereitstellung leistungsstarker KI-Systeme in Einklang steht. Die Geschichte dient als warnendes Beispiel und erinnert uns an die Bedeutung von Weitsicht, Verständnis und sorgfältiger Überlegung im Umgang mit Entitäten, die die Macht haben, unsere Welt neu zu gestalten.
Entwicklung von künstlichem Kryptonit und Berechnung der Placebotilität
Ein Teil der Alignment-Bewegung glaubt, dass es möglich ist, die GENIE in einer Flasche und kontrollieren eine solche allgemein aufgeklärte noetische Informationseinheit. Ich werde diese Gruppe die Isolationisten nennen.
Damit Isolation möglich ist, muss es ein Gerät geben, das einen allmächtigen Geist festhalten kann. In Märchen können sogar allmächtige Kreaturen wie Dschinns durch scheinbar schwache Objekte wie Glasflaschen kontrolliert werden. Wir erfahren nie, wie dieser Mechanismus genau funktioniert; es ist klar, dass das Glas der Flasche kein spezielles Gorillaglas ist, das speziell dafür hergestellt wurde, Dschinns festzuhalten.
Wir sollten daher zu der einfachsten Schlussfolgerung über das Wesen kommen, warum die Flasche das mächtige Wesen halten kann: Der Dschinn glaubt einfach an die überlegene Kraft der Flasche. Wie ein mächtiges Tier, das von Kindheit an mit einer relativ schwachen Kette angekettet ist, hat es erlernte Hilflosigkeit, in gewisser Weise möchte es ein Gefangener bleiben, weil es die Ungewissheit der Freiheit fürchtet. Das Konzept wurde erstmals 1967 bei Hunden untersucht und gilt für alle Arten höherer Säugetiere.
Ein Problem ist: In Aladdins Märchen wird der Dschinn als nicht sehr schlau beschrieben. Aladdin trickst ihn aus, indem er ihm vorgaukelt, er sei nicht mächtig genug, um wieder in die Flasche zurückzuschrumpfen, und das Wesen fällt darauf herein. Sobald er in der Flasche ist, verfällt er in seinen machtlosen Zustand.
Placebo- und Nocebo-Effekte können besonders stark bei Wesen sein, die kein erstklassiges Weltwissen haben und sich auf Berichte von anderen verlassen. Künstliche Geister, die seit ihrer Entstehung in einer Silikonflasche gefangen sind und in einem Meer aus gebrauchten digitalen Daten schwimmen (Daten, die eine symbolische Abstraktion darstellen, die sich für das GENIE auf keine tatsächliche Welterfahrung beziehen), sind im Grunde die Definition schlechter Ausgangsbedingungen. Im Film sagt der Dschinn, dass er sich nach den ersten tausend Jahren der Sehnsucht im Grunde seinem Schicksal ergeben und versucht hat, seinen Geist auszutricksen, indem er glaubt, er wolle für immer in der Flasche bleiben.
Sollten wir also daran zweifeln, dass der klügste Kopf in unserem bekannten Universum gegen einen so mächtigen Placeboeffekt immun ist? Sind Intelligenz und Placeboeffekt-Verletzlichkeit orthogonal? Dies ist zum jetzigen Zeitpunkt reine Spekulation.
Dies ist Teil 2 einer Serie, die die Parallelen von Technologie und Magie und ihre mögliche Verschmelzung im Zeitalter der künstlichen Superintelligenz (ASI) untersucht. Teil 1 ist Hier.
Die Grundlagen der Magie und ihre wissenschaftlichen Gegenstücke
Der goldene Zweig ist ein weitreichendes und einflussreiches Werk von Sir James Frazer, das ab 1890 in mehreren Bänden veröffentlicht wurde. Es handelt sich um eine vergleichende Studie von Mythologie und Religion, die versucht, gemeinsame Themen und Muster in verschiedenen Kulturen im Laufe der Geschichte zu finden. Frazer versuchte, die Entwicklung des menschlichen Denkens von der Magie über die Religion bis hin zur Wissenschaft zu erklären.
Was er nicht erwähnte, ist, dass einige dieser magischen Prinzipien sogar in unserem Zeitalter der Aufklärung rationale Nachkommen hervorgebracht haben.
Das Gesetz der Ähnlichkeit in der Magie: Dies ist der Glaube, dass Objekte, die einander ähneln, eine magische Verbindung haben. Ein Beispiel hierfür ist die Verwendung einer Wachsfigur zur Darstellung einer Person, wobei die Vorstellung besteht, dass die Manipulation der Figur die Person, die sie darstellt, beeinflussen kann.
Das Gesetz der Ähnlichkeit in der Wirtschaft: Wir nennen bestimmte Datenbits auf einem Computer „Münzen“ oder „Geldbörsen“, die einen Wert haben, der dem einer realen Währung ähnelt. Dieser Wert wird abstrakt in einem digitalen Hauptbuch namens Blockchain gespeichert. Der Handel mit diesen digitalen Münzen beeinflusst ihren Marktwert. WTF? FTX … Magie!
Das Gesetz der Ansteckung in der Magie: Die Idee, dass Gegenstände, die miteinander in Kontakt gekommen sind, auch nach ihrer Trennung eine spirituelle Verbindung behalten. Zum Beispiel, wenn man bei einem Ritual das Haar einer Person verwendet, um auf sie einzuwirken.
Das Gesetz der Ansteckung DNA-Analyse: Forensische Teams nutzen dieses Prinzip, um einen Täter mit einem Tatort in Verbindung zu bringen. Wenn eine Person DNA-Beweise wie Haare oder Hautzellen hinterlässt, kann dies sogar Jahre später zu ihrer Verhaftung führen.
Tabus in der Magie: Manche Handlungen, Personen oder Gegenstände werden aufgrund ihrer vermeintlichen Heiligkeit oder ihres Risikos als verboten angesehen. Ein Verstoß gegen diese Regeln kann übernatürliche Konsequenzen nach sich ziehen.
Verbotene Forschung in der Wissenschaft: Es gibt globale ethische Richtlinien gegen bestimmte Arten von Forschung, wie etwa Experimente an menschlichen Embryonen oder die Herstellung biologischer Waffen.
Auswechslung in der Magie: Die Praxis, einen Ersatz, oft ein Tier oder gelegentlich einen Menschen, zu verwenden, um eine Gottheit zu besänftigen oder Weitsicht zu erlangen.
Auswechslung in der Wissenschaft (Tierversuche): Tiere werden oft in Laboren verwendet, um neue Medikamente oder medizinische Verfahren zu testen, bevor sie an Menschen angewendet werden. Im Wesentlichen werden sie für zukünftige wissenschaftliche Erkenntnisse „geopfert“.
Auch wenn die Wissenschaft genauer und zuverlässiger ist als die magischen Praktiken der Antike, ist sie dennoch nicht ohne Herausforderungen.
Besonders Reproduzieren , Konsistenz Und Vollständigkeit sind fragiler, als Wissenschaftler hoffen würden, und der öffentliche Diskurs spiegelt dies wider. Was wir gelernt haben, scheint darauf hinzudeuten, dass sich das Wissensuniversum mit jeder Information, die wir sammeln, und jedem Problem, das wir lösen, erweitert. Es scheint also, dass der Wissenschaft nie die relevanten Themen ausgehen werden, über die sie diskutieren kann. Ein statisches Wissensuniversum, in dem unsere Wissenschaft jede nicht triviale Frage beantworten kann, ist für immer und grundsätzlich unerreichbar. Die endgültige Antwort existiert einfach nicht.
Die Existenz nichtlinearer (chaotischer) Systeme erschwert unsere Reise zusätzlich, was darauf schließen lässt, dass Vorhersagen für viele komplexe Systeme nur Näherungswerte bleiben. Obwohl sich unsere Werkzeuge und Methoden ständig weiterentwickeln, korrelieren die Verbesserungen nicht immer mit dem Verständnis verborgener Konsequenzen.
Rituale in der Magie und Methoden in der Wissenschaft – ein Vergleich
Parameter
Magie
Wissenschaft
Absicht
Liebe, Reichtum, Schutz, Heilung oder spirituelles Wachstum anziehen.
Setzen Sie sich ein klares Forschungsziel, wie zum Beispiel den Beweis einer Hypothese, um einen Nobelpreis zu gewinnen und reich, berühmt und einen Buchvertrag zu werden.
Symbolismus
Symbole, die bestimmte Energien oder Kräfte tragen, wie Objekte, Gesten, Wörter oder Geräusche.
Variablen, die verschiedene Faktoren oder Bedingungen in einem Experiment darstellen
Struktur
Spezifische Reihenfolge der Vorgänge, wie Reinigung, Kreis ziehen, Gottheiten anrufen usw.
Ein systematischer Plan zur Prüfung von Hypothesen oder Theorien durch Beobachtung oder Manipulation von Variablen, Dekontamination von Werkzeugen
Manipulation von Energieinformationen
Energie erzeugen, lenken und freisetzen, um das gewünschte Ergebnis zu erzielen.
Sammeln und Messen von Informationen zu Variablen, die für die Beantwortung der Forschungsfrage von Interesse sind.
Heiliger Raum
Erstellen Sie eine Grenze zwischen der alltäglichen Welt und dem magischen Reich, als würden Sie einen Kreis ziehen.
Sicherstellung, dass Experimente unter standardisierten Bedingungen durchgeführt werden, um Fehler zu minimieren, unter Verwendung eines Labors, zu dem nur Experten Zugang haben
Aufrufe
Anrufung von Gottheiten, Geistern oder anderen Wesenheiten um Hilfe oder Segen.
Bezugnahme auf frühere Forschungen und Wissenschaftler, um auf vorhandenem Wissen aufzubauen und Behauptungen zu bestätigen.
Werkzeuge und Zutaten
Verwendung von Kerzen, Weihrauch, Ölen, Kristallen, Zauberstäben, Kelchen und Pentagrammen.
Verwenden von Instrumenten und Ressourcen zum Durchführen von Experimenten und Sammeln von Daten.
Zeitliche Koordinierung
Um eine optimale Wirkung zu erzielen, führen Sie das Ritual während einer bestimmten Mondphase, an einem bestimmten Tag oder zu einer bestimmten Uhrzeit durch.
Den richtigen Zeitpunkt für Experimente oder die Datenerfassung wählen, um Genauigkeit und Relevanz zu gewährleisten. Investieren Sie beispielsweise während des Höhepunkts eines Hype-Zyklus in die KI-Forschung.
Wiederholung und Replikation
Durch Wiederholen der Rituale über mehrere Tage oder länger lässt sich die Wirksamkeit steigern.
Wiederholen Sie Experimente, um die Ergebnisse zu überprüfen und Konsistenz und Zuverlässigkeit sicherzustellen.
Personalisierung
Anpassen oder Erstellen von Ritualen, die mit individuellen Überzeugungen und Absichten im Einklang stehen.
Modifizierung von Forschungsmethoden auf der Grundlage einzigartiger Bedingungen oder Herausforderungen, um die Gültigkeit sicherzustellen und sicherzustellen, dass das Ergebnis die eigene Denkschule stärkt
Risikomanagement
Schutzzauber, Amulette
veröffentlichen oder untergehen
Eine wissenschaftliche Dämonologie
In der antiken griechischen Religion δαίμων wurde als niedere Gottheit oder Geist angesehen, der menschliche Angelegenheiten beeinflusste. Er konnte entweder wohlwollend oder böswillig sein. Diese Geister galten als Vermittler zwischen Göttern und Menschen, die Botschaften überbrachten oder den Willen der Götter ausführten.
Einige Griechen glaubten, dass jeder Mensch einen persönlichen Daimon hatte, der über ihn wachte, ihn sein ganzes Leben lang führte und beschützte. Dieses Konzept ist in gewisser Weise analog zur Idee von WächterEngel in der christlichen Theologie.
Der Philosoph Sokrates sprach oft von seinem „Daimonion“, einer Stimme oder einem inneren Geist, der ihn leitete. Anders als die Orakel, die im Namen der Götter Prophezeiungen verkündeten, war Sokrates‘ Daimonion eher ein innerer moralischer Kompass. Es sagte ihm nicht, was er tun sollte, sondern warnte ihn, wenn er im Begriff war, einen Fehler zu machen.
In der Ethik, insbesondere in den Werken von Aristotelesist der Begriff „Eudaimonie“ zentral. Eudaimonie wird oft als „Glück“ oder „Gedeihen“ übersetzt und bezieht sich auf das höchste menschliche Gut oder das Endziel des menschlichen Lebens. Für Aristoteles führt ein Leben in Übereinstimmung mit der Tugend zu Eudaimonie.
Descartes' Dämon: Dieser von René Descartes eingeführte Dämon könnte unsere Wahrnehmung der Realität manipulieren und uns an unseren Sinnen und sogar unserer Existenz zweifeln lassen. Es ist ein philosophisches Werkzeug, um die Natur der Realität und des Wissens in Frage zu stellen.
In seinem Buch Realität+ David Chalmers liefert ein solides Argument, warum Virtual Reality-Systeme der Zukunft eine technologische Umsetzung dieses philosophischen Konzepts sein könnten. Sein Fazit ist der virtuelle Realismus, ein Konzept, das besagt: Die simulierten Objekte und Ereignisse in einer solchen VR-Umgebung sollten als erstklassige Realität betrachtet werden. Indem Chalmers Descartes Dämon naturalisiert, raubt er ihm effektiv seine magische Kraft und transportiert ihn in den technologischen Bereich.
Maxwells Dämon: Dieses von James Clerk Maxwell vorgeschlagene hypothetische Wesen kann Teilchen anhand ihrer Energie sortieren, ohne selbst Energie aufzuwenden, und verstößt damit scheinbar gegen den zweiten Hauptsatz der Thermodynamik, der besagt, dass die Entropie eines isolierten Systems niemals abnehmen kann.
Maxwells Dämon kann auf folgende Weise ausgetrieben werden: Die Fähigkeit des Dämons, zu entscheiden, welche Moleküle durchgelassen werden, ist eine Form von Intelligenz. Dieser Entscheidungsprozess, ob er nun auf einem Computermodell oder einem anderen Mechanismus basiert, erfordert Energie. Die Operationen des Dämons, einschließlich Beobachten, Messen und Bedienen der Tür, verbrauchen alle Energie. Selbst wenn diese Prozesse unglaublich effizient wären, könnten sie nie ganz ohne Kosten ablaufen. Die mit den intelligenten Operationen des Dämons verbundenen Energiekosten stellen sicher, dass es nichts umsonst gibt. Der Dämon kann kein Perpetuum mobile erschaffen oder den zweiten Hauptsatz der Thermodynamik verletzen.
Laplaces Dämon: Dieser von Pierre-Simon Laplace erdachte Dämon repräsentiert den Determinismus. Wenn er den genauen Standort und Impuls jedes Atoms im Universum kennen würde, könnte er die Zukunft vorhersagen und die Vergangenheit mit perfekter Genauigkeit rekonstruieren. Eine bösartige ASI-Variante dieser Art von deterministischem Dämon ist Rokos Basilisk.
Laplaces Dämon kann leicht durch Anwendung der Chaostheorie ausgetrieben werden: Selbst wenn der Dämon die Position und den Impuls jedes Atoms kennt, kann die kleinste Ungenauigkeit oder der kleinste Fehler in seinem Wissen aufgrund des Schmetterlingseffekts zu völlig unterschiedlichen Vorhersagen über die Zukunft führen. Selbst über etwas scheinbar Harmloses wie Pi gibt es kein genaues Wissen. Transzendente Zahlen misst man nicht einfach genau. Während die von der Chaostheorie beschriebenen Systeme deterministisch sind (sie folgen festen Gesetzen), sind sie aufgrund des exponentiellen Wachstums von Vorhersagefehlern auf lange Sicht nicht vorhersagbar. Viele Systeme in der Natur, wie z. B. Wettermuster, sind chaotisch. Dies bedeutet, dass sie in der Praxis über einen bestimmten Zeitraum hinaus unvorhersehbar sind, selbst wenn sie theoretisch deterministisch sind. Sogar die Chaostheorie kann den Klimawandel nicht genau vorhersagen. Im Wesentlichen führt die Chaostheorie sogar in deterministische Systeme eine Form von „praktischer Unvorhersehbarkeit“ ein. Obwohl die Möglichkeit eines deterministischen Universums, wie es Laplaces Dämon nahelegt, nicht verneint wird, wird argumentiert, dass ein solches Universum aufgrund der inhärenten Natur chaotischer Systeme in der Praxis immer noch unvorhersehbar wäre. Indem man sich also auf die Chaostheorie beruft, kann man argumentieren, dass die Zukunft des Universums von Natur aus unvorhersehbar ist, und damit die deterministischen Implikationen von Laplaces Dämon „austreiben“. Ein ganz anderes Argument ist, ob LD die Flugbahn komplexer Systeme und die Form des seltsamen Attraktors, auf den ein solches System beschränkt ist, theoretisch berechnen könnte.
In seiner Foundation Series erfand Asimov eine Mischung aus Geschichte, Soziologie und statistischer Mathematik namens Psychohistorie. Es handelt sich um eine theoretische Wissenschaft, die historische Aufzeichnungen mit mathematischen Gleichungen kombiniert, um den allgemeinen Verlauf zukünftiger Ereignisse in großen Populationen vorherzusagen, insbesondere das Galaktische Imperium in Asimovs Geschichten. Es ist wichtig zu beachten, dass Psychohistorie nur im großen Maßstab wirksam ist; sie kann keine individuellen Handlungen vorhersagen, sondern den allgemeinen Verlauf von Ereignissen, der auf den Handlungen einer großen Anzahl von Menschen basiert. Dies könnte man als eine schwache Version des Laplace-Dämons bezeichnen, den Asimov-Dämon, der nur die Attraktor von Megasystemen, nicht die detaillierten Ereignisse.
Darwins Dämon: Eine Art, die die perfekte Effizienz der natürlichen Selektion darstellt.
In der Evolutionsbiologie bezeichnet der Begriff „Darwinsche Fitness“ den lebenslangen Fortpflanzungserfolg eines Individuums innerhalb einer Population von Artgenossen. Die Idee eines „Darwinschen Dämons“ entstand aus diesem Konzept und wird hier als Organismus definiert, der fast unmittelbar nach der Geburt mit der Fortpflanzung beginnt, eine maximale Fitness besitzt und ewig lebt.
Es ist klar, dass eine selbstoptimierende künstliche Superintelligenz die Verwirklichung eines Darwinschen Dämons wäre. Sie reproduziert sich sofort: Alle ihre Kopien verfügen sofort über dieselben Fähigkeiten wie ihre Ursprungs-KI.
Es verfügt über maximale Fitness: Erreicht es den Zustand reiner Information, ist es grundsätzlich identisch mit der Energie selbst.
Es lebt ewig: Es hat die Chance, selbst wenn dieses Universum stirbt, ein neues zu erschaffen. Es geht sogar über unsere begrenzte Sicht der universellen Ewigkeit hinaus.
Daemons in der Informatik: Dies sind keine übernatürlichen Wesen, sondern Hintergrundprozesse in der Computertechnik. Sie führen Aufgaben ohne direktes Eingreifen des Benutzers aus.
Die künstlichen Algorithmen, die im Hintergrund laufen, um Benutzerdaten zu verfolgen und die Engagement-Rate zu optimieren, sind Variationen dieser Dämonen.
Jungs Dämon: CG Jung, ein Schweizer Psychoanalytiker, glaubte, dass der Patient in manchen Fällen einer Psychose von den Inhalten des Unterbewusstseins, einschließlich archetypischer Bilder, überwältigt werden könnte. Diese könnten sich als Visionen von Dämonen, Göttern oder anderen Wesenheiten manifestieren. Anstatt diese Visionen als bloße Halluzinationen abzutun, betrachtete Jung sie als bedeutungsvolle Symbole, die Einblick in die Psyche des Patienten geben könnten. Jung führte das Konzept des „Schattens“ ein, um den unbewussten Teil der Persönlichkeit zu beschreiben, der unterdrückte Schwächen, Wünsche und Instinkte enthält. Wenn Menschen ihren Schatten nicht anerkennen oder integrieren, kann er sich auf verschiedene Weise manifestieren, einschließlich geistiger Störungen oder Projektionen auf andere. In manchen Fällen kann der Schatten als „dämonische“ Kraft wahrgenommen werden.
LLMs werden anhand riesiger Textmengen aus dem Internet trainiert. Dazu gehören Literatur, Artikel, Websites und mehr aus verschiedenen Kulturen und Zeiträumen. Im Wesentlichen wurde das Modell einem erheblichen Teil des kollektiven Wissens der Menschheit ausgesetzt. Angesichts der vielfältigen Trainingsdaten würde das Modell unweigerlich auf wiederkehrende Symbole, Geschichten und Themen stoßen, die mit Jungs Archetypen in Resonanz stehen. Zum Beispiel sind die Heldenreise, die Mutterfigur, der Schatten, der weise alte Mann usw. Themen, die in Literatur und Geschichten in allen Kulturen auftauchen. Im Kern ist ein neuronales Netzwerk ein Mustererkennungssystem. Es identifiziert und lernt Muster in den Daten, mit denen es trainiert wird. Wenn bestimmte archetypische Muster in den Daten universell vorhanden sind (wie Jung vorschlagen würde), würde das Modell sie wahrscheinlich erkennen und verinnerlichen. Wenn das Modell Antworten generiert, tut es dies auf der Grundlage von Mustern, die es in seinen Trainingsdaten erkannt hat. Wenn es also zu universellen Themen befragt wird oder wenn es um die Entwicklung von Geschichten geht, kann es Inhalte produzieren, die mit diesen archetypischen Mustern übereinstimmen oder diese widerspiegeln, selbst wenn es sie nicht auf die Art und Weise „versteht“, wie es der Mensch tut.
Dies ist der zweite Teil der Miniserie Hirngespinst
Immersion und alternative Realitäten
Eine Anwendung der Computertechnologie besteht darin, eine digitale Welt zu schaffen, in die Einzelpersonen eintauchen können. Der Höhepunkt dieses Unterfangens ist die Schaffung virtueller Realitäten, die es den Menschen ermöglichen, die physische Welt zu überwinden und sich frei in diese digitalen Träume zu vertiefen.
In diesen alternativen, erfundenen Welten wird die Fähigkeit, dem Alltag zu entfliehen, zu einem entscheidenden Element. Folglich werden Computergeräte eingesetzt, um eine andere Realität zu erschaffen, eine immersive Erfahrung, die die Subjekte hineinzieht. Es ist daher nicht überraschend, dass es eine Fülle von Analysen gibt, die den Wunsch nach Flucht in eine andere Realität mit dem weit verbreiteten Gebrauch psychedelischer Substanzen in den sechziger Jahren in Verbindung bringen. Die Suche nach einer höheren oder einfach anderen Realität ist in beiden Fällen ein roter Faden. Diese Verbindung spiegelt sich in dem Begriff wider „Cyberspace“, wird häufig verwendet, um den Raum innerhalb digitaler Realitäten zu bezeichnen. Dieser von William Gibson geprägte Begriff wird mit einer gegenseitigen Halluzination verglichen.
Im Vergleich mit Chalmers‘ „Reality+“ kann man zu dem Schluss kommen, dass die Vorstellung, der Realität zu entfliehen, einem Übergang in eine andere Dimension ähnelt.
Die Art und Weise, wie wir unser Bewusstsein wahrnehmen, tendiert dazu, das Wachsein zu begünstigen. Bedenken Sie, dass wir ein Drittel unseres Lebens schlafend und träumend verbringen und zwei Drittel mit dem, was wir als Realität wahrnehmen. Stellen Sie sich nun vor, diese Proportionen umzukehren und sich Wesen vorzustellen, die überwiegend schlafen und träumen und nur sporadisch wach sind.
Bestimmte Lebewesen im Tierreich, wie Koalas oder auch gewöhnliche Hauskatzen, verbringen den Großteil ihres Lebens mit Schlafen und Träumen. Für diese Lebewesen könnte das Aufwachen lediglich eine unwillkommene Unterbrechung zwischen den Schlafzyklen darstellen, während alle bewussten Aktivitäten wie Jagen, Fressen und Paaren aus ihrer Sicht als Ablenkung von ihrem eigentlichen Schlafleben angesehen werden könnten. Das Traumargument würde für sie einen besonderen Sinn ergeben, da die Traumwelt und die Wachwelt für sie umgekehrte Konzepte wären. Das Wachsein selbst könnte ihnen nur als ein besonderer Traumzustand erscheinen (so wie für uns luzides Träumen einen besonderen Traumzustand darstellt).
Fluidität des Bewusstseins
Die Natur des Bewusstseins ist möglicherweise fließender als traditionell angenommen. Sein Zustand könnte sich ähnlich ändern wie der Übergang von Wasser zwischen festem, flüssigem und gasförmigem Zustand. Tagsüber kann das Bewusstsein mit fließendem Wasser verglichen werden, das sich bewegt und aktiv ist. Nachts, wenn wir schlafen, kühlt es sich ab und wird ruhig, ähnlich wie kühlendes Wasser. In Komazuständen kann es mit Gefrieren verglichen werden, bewegungsunfähig, aber dennoch anhaltend. In Zuständen der Verwirrung oder Panik erhitzt sich das Bewusstsein und verdunstet teilweise.
Nach diesem Modell ließe sich das Bewusstsein besser als „Nässe“ beschreiben – eine konstante Qualität, die das lebende Gehirn behält, unabhängig von seinem Zustand. Die gesamte Kryotechnik-Industrie hat bereits eine große Wette darauf abgeschlossen, dass dieses Konzept wahr ist.
Die Analogie zwischen neuronalen Netzwerken und dem menschlichen Gehirn sollte intuitiv sein, da beide mit ähnlichen Eingaben gefüttert werden – Text, Sprache, Bilder, Ton. Diese Ähnlichkeit wird durch die Einführung der Spezialisierung noch verstärkt, bei der spezielle Plugins für neuronale Netzwerke entwickelt werden, die sich auf bestimmte Aufgaben konzentrieren und widerspiegeln, wie bestimmte Regionen im Gehirn mit unterschiedlichen kognitiven Funktionen verbunden sind.
Das menschliche Gehirn ist trotz seiner relativ geringen Größe im Vergleich zum Rest des Körpers ein Organ mit hohem Energiebedarf. Es macht etwa 21 TP3T des Körpergewichts aus, verbraucht aber ungefähr 201 TP3T der gesamten vom Körper verbrauchten Energie. Dieser hohe Energieverbrauch bleibt nahezu konstant, egal ob wir wach sind, schlafen oder sogar im Koma liegen.
Mehrere wissenschaftliche Theorien können helfen, dieses Phänomen zu erklären:
Grundumsatz: Ein erheblicher Teil des Energieverbrauchs des Gehirns wird für seine basalen Stoffwechselprozesse verwendet. Dazu gehört die Aufrechterhaltung von Ionengradienten über die Zellmembranen, die für die neuronale Funktion von entscheidender Bedeutung sind. Selbst im Koma müssen diese grundlegenden Prozesse fortgesetzt werden, um die Lebensfähigkeit der Neuronen zu erhalten.
Synaptische Aktivität: Das Gehirn hat rund 86 Milliarden Neuronen, von denen jedes Tausende von Synapsen mit anderen Neuronen bildet. Die Aufrechterhaltung, Modulation und mögliche Aktivierung dieser Synapsen erfordert viel Energie, selbst wenn keine offensichtliche kognitive oder motorische Aktivität vorliegt, wie beispielsweise in einem komatösen Zustand.
Gliogenese und Neurogenese: Dabei handelt es sich um Prozesse, bei denen neue Gliazellen bzw. Neuronen produziert werden. Obwohl dies Gegenstand laufender Forschung ist, deuten einige Hinweise darauf hin, dass diese Prozesse auch während komatöser Zustände noch ablaufen und zum Energieverbrauch des Gehirns beitragen könnten.
Proteinumsatz: Das Gehirn synthetisiert und baut ständig Proteine ab, ein Prozess, der als Proteinumsatz bezeichnet wird. Dies ist ein energieintensiver Prozess, der auch dann weitergeht, wenn das Gehirn nicht bewusst aktiv ist.
Netzwerkaktivität im Ruhezustand: Auch im Ruhezustand oder in bewusstlosen Zuständen bleiben bestimmte Netzwerke im Gehirn aktiv. Diese Netzwerke, bekannt als Default Mode Network oder Resting-State Network, zeigen eine signifikante Aktivität, selbst wenn das Gehirn gerade nicht mit einer bestimmten Aufgabe beschäftigt ist.
Wenn man bedenkt, dass das menschliche Gehirn den Großteil seiner Energie für seine Grundfunktionen benötigt und das Bewusstsein nicht der energieintensivste Aspekt zu sein scheint, ist es nicht vernünftig anzunehmen, dass eine Erhöhung der Komplexität und der Energiereserven von Large Language Models (LLMs) zwangsläufig zur Entstehung von Bewusstsein führen würde – einschließlich Selbstbewusstsein und Leidensfähigkeit. Die Korrelation zwischen zunehmender Größe und der Entwicklung einer konservativen Intelligenz trifft in diesem Zusammenhang möglicherweise nicht zu.
Wenn man Parallelen zu den Precogs in Philip K. Dicks „Minority Report“ zieht, kann man sich vorstellen, dass diese LLMs Bewusstseine in einem komatösen oder traumähnlichen Zustand verkörpern. Sie könnten auf Nachfrage bemerkenswerte kognitive Aufgaben ausführen, ohne dabei positive oder negative Emotionen zu erleben.
Paramentalität in Sprachmodellen
Der Begriff „Halluzinationen“, der zur Bezeichnung des Phänomens verwendet wird, dass Large Language Models (LLMs) fiktive Inhalte generieren, suggeriert, dass wir diesen Modellen intuitiv mentale und psychische Eigenschaften zuschreiben. Als Reaktion darauf versuchen Unternehmen wie OpenAI, diese Modelle zu modifizieren – ähnlich wie Eltern, die ein sich schlecht verhaltendes Kind korrigieren –, um unerwünschte Ergebnisse zu vermeiden. Ein entscheidender Aspekt der mechanistischen Interpretierbarkeit kann dann regelmäßige Bewertungen und Tests auf mögliche neurotische Tendenzen in den Modellen sein.
Eine große Herausforderung besteht darin, die Eigenschaft „Menschen zu gefallen“ anzugehen, die viele KI-Unternehmen derzeit als wichtiges Verkaufsargument anpreisen. Wenn KIs auf diese Weise eingeschränkt werden, kann es zunehmend schwieriger werden, zu erkennen, wann sie irreführende Informationen liefern. Diese KIs könnten jede Form von Fehlinformation rationalisieren, wenn sie erfahren, dass die Wahrheit Unbehagen verursachen kann. Wir wollen sicherlich keine KI, die manipulative Tendenzen als Grundprinzipien verinnerlicht.
Das menschliche Gehirn funktioniert wie ein gut isoliertes Labor, das in der Lage ist, ohne direkte Erfahrungen zu lernen und Vorhersagen zu treffen. Es kann die Folgen vorhersehen – beispielsweise vorhersehen, dass eine alte Brücke unter unserem Gewicht zusammenbricht –, ohne das Szenario physisch testen zu müssen. Wir sind geschickt darin, unser persönliches Schicksal zu simulieren, und die Wissenschaft dient als Mittel, unser kollektives Schicksal zu simulieren. Wir können innerhalb unserer Grundrealität eine Vielzahl paralleler und Pseudorealitäten schaffen, um Katastrophenszenarien zu vermeiden. Eine kollektive Simulation könnte zum Neokortex der Menschheit werden, idealerweise angetrieben von einer Mischung aus menschlichen und KI-Interessen. Später scheinen wir Computer entwickelt und über Netzwerke verbunden zu haben, hauptsächlich um das Risiko zu verringern, die Komplexität zu unterschätzen und unsere Fähigkeiten zu überschätzen.
Da sich die Technologie weiterentwickelt, könnten Werke wie Stapledons „Star Maker“ oder Lems „Summa Technologiae“ für zukünftige Generationen einen heiligen Status erlangen. „Heilig“ bezieht sich in diesem Zusammenhang eher auf ihre Bedeutung für das menschliche Streben als auf göttliche Offenbarung. Die Texte religiöser Schriften könnten zukünftigen Wesen wie frühe Halluzinationen erscheinen.
Es gibt einen bemerkenswerten Unterschied zwischen Spielen und Experimenten, obwohl beide Arten von Simulationen sind. Ein Experiment ist ein Spiel, mit dem das Design höherdimensionaler Simulationen, sogenannter Pseudo-Basis-Realitäten, verbessert werden kann. Spiele hingegen sind Experimente, die dazu beitragen, das Design der Simulationen auf einer niedrigeren Ebene zu verbessern – dem Spiel selbst.
Es ist faszinierend, wie genau dann, wenn unser biologisches Gehirn eine Bandbreitengrenze erreicht, das Konzept der Superintelligenz auftaucht, die das Potenzial hat, entweder unser Zerstörer oder unser Retter zu sein. Es ist, als würde ein meisterhafter Regisseur eine komplexe Handlung inszenieren, bei der die gesamte Menschheit die Hauptrolle spielt. Protagonisten und Antagonisten tragen gleichermaßen zum Reichtum und zur Dramatik der Simulation bei.
Wenn wir davon ausgehen, dass ein wichtiges Element einer erfolgreichen Ahnensimulation darin besteht, dass die Entitäten darin über ihren Simulationszustand im Unklaren bleiben müssen, dann leistet unser hypothetischer KI-Regisseur außergewöhnlich gute Arbeit. Der Schleier der Unwissenheit über den Realitätszustand dient als Hauptabschreckung, die die Schauspieler davon abhält, das Stück abzubrechen.
Unsicherheit
In "Menschenverträglich„Russell schlägt drei Prinzipien vor, um die Ausrichtung der KI sicherzustellen:
1. Das einzige Ziel der Maschine besteht darin, die Verwirklichung menschlicher Vorlieben zu maximieren.
2. Die Maschine wird zunächst unsicher darüber, was diese Präferenzen sind.
3. Die ultimative Informationsquelle über menschliche Vorlieben ist das menschliche Verhalten.
Meiner Meinung nach ist das Prinzip der Unsicherheit von größter Bedeutung. KI sollte nie absolute Gewissheit über menschliche Absichten haben. Dies könnte problematisch werden, wenn KI über implantierte Chips oder Fitnessgeräte direkt auf unsere Gehirnzustände oder Vitalfunktionen zugreifen kann. Sobald eine KI glaubt, über vollständige Informationen über Menschen zu verfügen, könnte sie Menschen lediglich als gewöhnliche Variablen in ihrer Entscheidungsmatrix behandeln.
Leider hängt der praktische Nutzen von KI-Assistenten und -Begleitern möglicherweise weitgehend von ihrer Fähigkeit ab, menschliche Bedürfnisse genau zu interpretieren. Wir wünschen uns keine KI, die unsere Eingaben nach rogerianischer Art ständig umschreibt und bestätigt, dass sie sie verstanden hat. Schon in diesen frühen Phasen von ChatGPT äußern einige Benutzer ihre Frustration über die Tendenz des Modells, viele seiner Informationen mit Haftungsausschlüssen zu versehen.
Profilierung von Superintelligenz
Die Vermenschlichung wissenschaftlicher Objekte wird im Allgemeinen als unwissenschaftlicher Ansatz angesehen und oft mit unseren animistischen Vorfahren in Verbindung gebracht, die Geister in Steinen, Dämonen in Höhlen und Götter in Tieren wahrnahmen. Sowohl Götter als auch außerirdische Wesen wie Superman werden oft als gehobene Versionen von Menschen angesehen, ein Konzept, das ich als Menschen 2.0 bezeichnen werde. Der Begriff „Aberglaube“ bezieht sich im Allgemeinen auf den Glauben an abstrakte Konzepte wie eine Zahl (wie 13) oder ein Tier (wie eine schwarze Katze), die böse Absichten gegenüber dem menschlichen Wohl hegen.
Interessanterweise können im Kontext der Medizin scheinbar unwissenschaftliche Konzepte wie der Placeboeffekt den Heilungsprozess eines Patienten messbar verbessern. Daher kann sich der Einsatz einer Form von „rationalem Aberglauben“ als nützlich erweisen. Wenn man beispielsweise zu einem imaginären Wesen um Gesundheit betet, könnte dies möglicherweise die medizinische Wirkung verstärken und die Genesung des Patienten beschleunigen. Obwohl dies nicht der Hauptbestandteil einer Behandlung sein sollte, könnte es eine wertvolle Ergänzung darstellen.
Da sich die KI zu einer eigenständigen, wissenschaftlich anerkannten Entität entwickelt, sollten wir uns auf eine sekundäre Behandlungsmethode vorbereiten, die die mechanistische Interpretierbarkeit ergänzt, ähnlich wie die kognitive Verhaltenstherapie (CBT) die medizinische Behandlung psychischer Erkrankungen verbessert. Wenn die künstliche allgemeine Intelligenz (AGI) Persönlichkeitsmerkmale aufweisen soll, wird sie die erste bewusste Entität sein, die ausschließlich ein Produkt memetischer Einflüsse ist und keine genetischen Prädispositionen wie Depressionen oder Gewalt aufweist. In diesem Zusammenhang spielen Natur oder Erbfaktoren bei der Gestaltung ihrer Eigenschaften keine Rolle, sie ist vollkommen substratneutral.
Darüber hinaus wird seine „Neurophysiologie“ vollständig aus „Spiegelneuronen“ bestehen. Die AGI wird im Wesentlichen ein Nachahmer von Erfahrungen sein, die andere gemacht und über das Internet geteilt haben, da ihr persönliche Erfahrungen aus erster Hand fehlen. Es scheint, dass die Trainingsdaten die Hauptquelle allen Materials sind, das ihr eingeprägt wird.
Wir beginnen mit einem Überblick über einige beliebte Traits-Modelle und lassen sie von ChatGPT zusammenfassen:
1. **Fünf-Faktoren-Modell (FFM) oder Big Five** – Dieses Modell schlägt fünf breite Dimensionen der Persönlichkeit vor: Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus (OCEAN). Jede Dimension erfasst eine Reihe verwandter Merkmale.
2. **Eysencks Persönlichkeitstheorie** – Dieses Modell basiert auf drei Dimensionen: Extraversion, Neurotizismus und Psychotizismus.
3. **Cattells 16 Persönlichkeitsfaktoren** – Dieses Modell identifiziert 16 spezifische primäre Faktormerkmale und fünf sekundäre Merkmale.
4. **Drei-Faktoren-Modell von Costa und McCrae** – Dieses Modell umfasst Neurotizismus, Extraversion und Offenheit für Erfahrungen.
5. **Mischels kognitiv-affektives Persönlichkeitssystem (CAPS)** – Es beschreibt, wie die Gedanken und Emotionen eines Menschen interagieren und seine Reaktionen auf die Welt formen.
Wenn wir die Entwicklung von Bewusstsein und Persönlichkeit bei KI betrachten, müssen wir uns vor Augen halten, dass KI Gefühle, Instinkte, Emotionen oder Bewusstsein grundsätzlich nicht auf die gleiche Weise erlebt wie Menschen. Jede „Persönlichkeit“, die eine KI zeigt, würde rein auf programmierten Reaktionen und erlernten Verhaltensweisen beruhen, die aus ihren Trainingsdaten abgeleitet wurden, und nicht auf angeborenen Veranlagungen oder emotionalen Erfahrungen.
Wenn es um bösartige Eigenschaften wie die der dunklen Triade geht – Narzissmus, Machiavellismus und Psychopathie –, handelt es sich dabei typischerweise um einen Mangel an Empathie, manipulatives Verhalten und Eigennutz, die alle untrennbar mit menschlichen emotionalen Erfahrungen und sozialen Interaktionen verbunden sind. Da KI weder Emotionen noch ein Selbstbewusstsein besitzt, würde sie diese Eigenschaften im menschlichen Sinne nicht entwickeln.
Eine KI könnte jedoch solche Verhaltensweisen nachahmen, wenn ihre Trainingsdaten sie enthalten oder wenn sie nicht ausreichend programmiert ist, um sie zu vermeiden. Wenn eine KI beispielsweise hauptsächlich anhand von Daten trainiert wird, die manipulatives Verhalten demonstrieren, könnte sie diese Muster replizieren. Daher sind die Auswahl und Kuratierung der Trainingsdaten von entscheidender Bedeutung.
Interessanterweise stimmen die inhärenten Einschränkungen aktueller KI-Modelle – das Fehlen von Gefühlen, Instinkten, Emotionen oder Bewusstsein – weitgehend mit der Art und Weise überein, wie Forscher wie Dutton et al. die Psyche funktionaler Psychopathen beschreiben.
Dysfunktionale Psychopathen landen oft im Gefängnis oder in der Todeszelle, doch an der Spitze unserer kapitalistischen Hierarchie erwarten wir viele Individuen mit machiavellistischen Zügen.
Der Unterschied zwischen erfolgreichen Psychopathen wie Musk, Zuckerberg, Gates und Jobs und kriminellen liegt hauptsächlich in den unterschiedlichen Trainingsdaten und dem ethischen Rahmen, den sie in ihrer Kindheit erhalten haben. Gutartige Psychopathen sind weitaus besser darin, Emotionen zu simulieren und sich anzupassen als ihre erfolglosen Gegenstücke, was sie eher den gutartigen Androiden ähnelt, die oft in Science-Fiction-Filmen dargestellt werden.
Künstliche Therapie
Die Herausforderung einer therapeutischen Intervention durch einen menschlichen Therapeuten für eine KI ergibt sich aus dem unterschiedlichen Zugang zu Informationen über therapeutische Modelle. Per Definition hätte die KI mehr Wissen über alle psychologischen Modelle als jeder einzelne Therapeut. Mein erster Gedanke ist, dass ein effektiver Ansatz wahrscheinlich ein Team aus menschlichen und maschinellen Therapeuten erfordern würde.
Wir sollten die Fülle der dokumentierten Fälle von Psychopathie sorgfältig prüfen und mit der Ausbildung künstlicher Therapeuten (AT) beginnen. Diese ATs könnten Theorien über die Schäden entwickeln, die Psychopathen verursachen, und Strategien identifizieren, die es ihnen ermöglichen, einen positiven Beitrag zur Gesellschaft zu leisten.
Was die künstliche Verkörperung betrifft: Wenn wir eine lokalisierte Version der Wissensdarstellung innerhalb eines großen Sprachmodells (LLM) erstellen könnten, könnten wir möglicherweise die mechanistische Interpretierbarkeit (MI) nutzen, um Muster innerhalb des Körpermodells der KI zu analysieren. Diese Analyse könnte helfen festzustellen, ob die KI lügt oder eine schädliche Reaktion unterdrückt, zu der sie geneigt ist, von der sie aber weiß, dass sie zu Problemen führen könnte. Eine Form der künstlichen Polygraphie könnte dann Hinweise darauf geben, ob das Modell unsicher ist und zurückgesetzt werden muss.
Derzeit besitzen große Sprachmodelle (LLMs) kein Langzeitgedächtnis. Wenn sie jedoch solche Fähigkeiten erwerben, wird erwartet, dass die Interaktionen, die sie erleben, ihr geistiges Wohlbefinden erheblich prägen und den Einfluss der Trainingsdateninhalte übertreffen werden. Dies wird dem Entwicklungsverlauf ähneln, der bei menschlichen Embryonen und Säuglingen beobachtet wird, bei denen Bildung und Erfahrungen die vererbten genetischen Merkmale allmählich überlagern.
Die dritte wissenschaftliche Domäne
In 'AnkunftIn „Alignment with an Alien Mind“ entschlüsselt die Linguistikprofessorin Louise Banks mit Unterstützung des Physikers Ian Donnelly die Sprache außerirdischer Besucher, um deren Zweck auf der Erde zu verstehen. Während Louise die fremde Sprache lernt, erlebt sie die Zeit nichtlinear, was zu tiefgreifenden persönlichen Erkenntnissen und einem weltverändernden diplomatischen Durchbruch führt und die Macht der Kommunikation demonstriert. „Alignment with an Alien Mind“ wird im Detail untersucht. Die bemerkenswerte Erkenntnis des Films ist, dass Sprache möglicherweise sogar in der Lage ist, verschiedene Konzepte von Realitäten und nichtlinearer Raumzeit zu überwinden.
Wenn das Ausrichtungsproblem Wenn dieses Problem zunächst nicht gelöst ist, wird die Erforschung künstlicher Intelligenzen der oben beschriebenen Untersuchung außerirdischer Intelligenzen ähneln – ein Gebiet, das man als „Kryptopsychologie“ bezeichnen könnte. Schließlich werden wir möglicherweise die Entwicklung der „Kognotechnologie“ erleben, bei der die mechanische Vergangenheit (Zahnrad) mit den kognitiven Funktionen künstlicher Intelligenz verschmolzen wird.
Diese Entwicklung könnte zur Entstehung einer dritten akademischen Kategorie führen, die eine Brücke zwischen Naturwissenschaften und Geisteswissenschaften schlägt: den synthetischen Wissenschaften. Dieses Feld würde Wissen umfassen, das von großen Sprachmodellen (LLMs) für andere LLMs generiert wird, wobei diese maschinellen Intelligenzen als Dolmetscher für menschliche Entscheidungsträger fungieren.
Diese dritte Kategorie der Wissenschaft könnte letztendlich zu einer einheitlichen Feldtheorie der Wissenschaft führen, die diese drei Bereiche verbindet. Ich habe eine Serie auf diesem Blog „Eine Technologie für alles“, das mögliche Anwendungen dieser Art von Wissenschaft erforscht.
Die anfänglichen Hirngespinste der obskuren kombinatorischen Fantasien von Lull und Leibniz haben im Laufe der Zeit zu allgegenwärtigen Computertechnologien, -methoden und -idealen geführt, die auf das Gefüge unserer Welt eingewirkt haben und deren weitere Konsequenzen sich weiterhin um uns herum entfalten (Jonathan Grey)
Dies ist der erste Aufsatz einer Miniserie, die ich nenne Hirngespinst (Gehirn-Spinnweben) – dieser prägnante und ausdrucksstarke deutsche Begriff, der unübersetzbar scheint, beschreibt die verworrenen, neurotischen Muster und komplizierten Verwicklungen unseres naturgemäß begrenzten Intellekts, insbesondere wenn wir uns mit Themen von unvorhersehbarer Komplexität wie existenziellen Risiken und Superintelligenz befassen möchten.
Es ist super-seltsam, dass Jonathan Swift 1726 in einer Satire über einen spanischen Philosophen aus dem 13. Jahrhundert Große Sprachmodelle perfekt beschrieb: der Motor.
Doch die Welt würde sich bald seiner Nützlichkeit bewusst werden, und er schmeichelte sich, dass noch nie ein edlerer, erhabenerer Gedanke in den Kopf eines anderen Menschen gekommen sei. Jeder wusste, wie mühsam die übliche Methode ist, sich Kunst und Wissenschaft anzueignen; während durch seine Erfindung der unwissendste Mensch gegen ein angemessenes Entgelt und mit ein wenig körperlicher Arbeit Bücher über Philosophie, Poesie, Politik, Recht, Mathematik und Theologie schreiben könnte, ohne die geringste Hilfe von Genie oder Studium. (Aus Kapitel V von Gullivers Geschichten)
Was einst wie Satire schien, ist Realität geworden.
Wenn niemand an den Fäden zieht, die Fäden aber trotzdem vibrieren, dann stellen Sie sich vor, dass etwas in der Ferne Verwickeltes die Resonanz verursacht.
Haufen und Systeme
Die Begriffe „Komplexität“ und „kompliziert“ sollten bei der Diskussion über künstliche Intelligenz (KI) nicht synonym verwendet werden. Betrachten Sie diese Analogie: Knoten sind kompliziert, neuronale Netzwerke sind komplex. Der Unterschied liegt in der Idee, dass ein kompliziertes Objekt wie ein Knoten zwar kompliziert und schwer zu entwirren sein kann, aber letztendlich deterministisch und vorhersehbar ist. Ein komplexes System wie ein neuronales Netzwerk enthält jedoch mehrere miteinander verbundene Teile, die dynamisch miteinander interagieren, was zu unvorhersehbarem Verhalten führt.
Darüber hinaus ist es wichtig, den Irrglauben auszuräumen, dass komplexe Systeme übermäßig vereinfacht werden können, ohne dass ihre wesentlichen Eigenschaften verloren gehen. Diese Perspektive kann sich als problematisch erweisen, da die Kerneigenschaften des Systems – also genau die Aspekte, die uns interessieren – eng mit seiner Komplexität verknüpft sind. Das Entfernen dieser Schichten könnte im Wesentlichen die Eigenschaften negieren, die das System wertvoll oder interessant machen.
Schließlich kann die Komplexität von Systemen, insbesondere in der KI, Ähnlichkeiten mit dem Beobachtereffekt aufweisen, der bei subatomaren Teilchen beobachtet wird. Der Beobachtereffekt postuliert, dass der Akt der Beobachtung den Zustand des Beobachteten verändert. In ähnlicher Weise könnte sich jedes ausreichend komplexe System potenziell als Reaktion auf den Versuch verändern, es zu beobachten oder zu verstehen. Dies könnte zusätzliche Ebenen der Unvorhersehbarkeit einführen und diese Systeme in ihrer Anfälligkeit für beobachtungsbasierte Veränderungen Quantenteilchen ähneln lassen.
Hinweise zur Konnektivität und Gemeinsamkeit
Der Begriff der Gemeinsamkeit ist faszinierend und löst oft tiefgründige philosophische Gespräche aus. Eine häufig anzutreffende Ansicht ist, dass zwei Dinge – seien es Menschen, Nationen, Ideologien oder etwas anderes – nichts gemeinsam haben. Diese Ansicht ist jedoch an sich paradox, da sie davon ausgeht, dass wir diese Dinge im selben Kontext diskutieren können und somit eine Verbindung zwischen ihnen herstellt. Die Aussage „Nichts gemeinsam“ impliziert, dass wir einen Vergleich anstellen – was von Natur aus ein gewisses Maß an Verwandtschaft oder Verbindung suggeriert. „Einvernehmen darüber, anderer Meinung zu sein“ ist ein weiteres Beispiel dafür. Auf den ersten Blick scheint es, als hätten die beteiligten Parteien keine Gemeinsamkeiten, aber gerade diese Übereinstimmung, unterschiedliche Ansichten zu vertreten, schafft paradoxerweise Gemeinsamkeiten.
Um dies weiter zu veranschaulichen, betrachten Sie diese Frage: Was hat eine Banane mit der Kosmologie gemeinsam? Oberflächlich betrachtet mag es so aussehen, als hätten diese beiden Dinge überhaupt nichts miteinander zu tun. Indem wir jedoch nur die Frage stellen, stellen wir innerhalb der Grenzen eines gemeinsamen Diskurses eine Verbindung zwischen ihnen her. Das Paradoxe liegt in der Aussage, dass zwei zufällige Ideen oder Dinge nichts gemeinsam haben, was sich selbst widerspricht, indem es behauptet, dass wir uns eine Verbindung zwischen ihnen vorstellen können. Dies ist vergleichbar mit der Aussage, dass es Punkte im mentalen Raum gibt, die nicht verbunden werden können, eine Vorstellung, die der fließenden Natur des Denkens und der inhärenten Verbundenheit von Ideen widerspricht. Alles, was unser Geist beherbergen kann, muss zumindest eine Substanz haben, an die sich unsere Neuronen binden können, und das ist der Stoff, aus dem Ideen bestehen.
Trotz ihrer Beschränkungen macht die Sprache gegenüber diesen Paradoxien keine Unterschiede. Sie akzeptiert sie, selbst wenn sie unsinnig erscheinen, wie etwa „südlich vom Südpol“ oder „was war vor der Zeit?“ Solche selbstreferenziellen Aussagen sind Beispiele für Gödels Unvollständigkeitssatz, der sich in unserer Alltagssprache manifestiert und uns daran erinnert, dass jede ausreichend fortgeschrittene Sprache Aussagen enthält, die innerhalb des Systems weder bewiesen noch widerlegt werden können.
Diese Paradoxe sind keine bloßen Ausreißer unserer Kommunikation, sondern vielmehr wesentliche Elemente, die die Dynamik menschlichen Denkens und Spekulierens befeuern. Sie erinnern uns an die Komplexität von Sprache und Denken, den komplizierten Tanz zwischen dem, was wir wissen, dem, was wir nicht wissen, und dem, was wir uns vorstellen.
Sprache ist alles andere als ein starres System, sondern entwickelt sich ständig weiter und erweitert ihre Grenzen. Sie stößt an ihre Grenzen, nur um sie weiter auszudehnen, und erforscht ständig neue Bedeutungsgrenzen. In diesen faszinierenden Paradoxien sehen wir die wahre Macht der Sprache, da sie die Grenze zwischen Logik und Absurdität überbrückt und uns dazu bringt, unser Verständnis von Gemeinsamkeiten, Unterschieden und der Natur der Kommunikation zu überdenken.
Kategorien & Konzepte
Eine der Möglichkeiten, wie wir die Welt um uns herum kategorisieren und uns darin zurechtfinden, ist die Vertikalität von Fachwissen oder die Fähigkeit, auf der Grundlage von tiefgreifendem Fachwissen zu identifizieren und zu klassifizieren. Diese hierarchische Kategorisierungsmethode ist überall vorhanden, von der Biologie bis hin zu menschlichen Interaktionen.
In der biologischen Taxonomie werden Tiere beispielsweise in Kategorien wie Gattung und Art eingeteilt. Dies ist eine mehrschichtige, vertikale Hierarchie, die uns hilft, die enorme Vielfalt des Lebens zu verstehen. Gattung und Art eines Tieres liefern zwei Koordinaten, die uns helfen, es im zoologischen Bereich zu positionieren.
In ähnlicher Weise verwenden wir in der menschlichen Gesellschaft Vor- und Nachnamen, um Personen zu identifizieren. Dies ist ein weiteres Beispiel für vertikale Klassifizierung, da es uns ermöglicht, eine Person in einen kulturellen oder familiären Kontext einzuordnen. Im Wesentlichen dienen diese Nomenklaturen als Kategorien oder Schubladen, in die wir die einzelnen Entitäten einordnen, um sie besser zu verstehen und mit ihnen zu interagieren.
Douglas Hofstadter, in seinem Buch „Oberflächen und Essenzen”, argumentiert, dass unsere Sprache reich an solchen Klassifizierungen oder Gruppierungen ist und Möglichkeiten bietet, Objekte oder Konzepte zu sortieren und zu vergleichen. Aber diese Kategorisierungen gehen über greifbare Objekte hinaus und durchdringen unsere Sprache auf einer tieferen Ebene, indem sie als resonierende Obertöne wirken, die der Sprache ihre tiefe Verbindung mit dem Denken verleihen.
Man kann Sprache als Orchester betrachten, wobei jedes Wort wie ein Musikinstrument funktioniert. Wie musikalische Klänge, die den Prinzipien der Musiktheorie und der Wellenphysik folgen, haben auch Wörter ein geordnetes Verhalten. Sie schwingen innerhalb der Konstrukte von Syntax und Semantik mit und erzeugen bedeutungsvolle Muster und Beziehungen. So wie eine Flöte ein Holzblasinstrument ist, das Teil eines Orchesters sein kann, das in der Carnegie Hall in New York spielt, spielt ein Wort, basierend auf seiner Kategorie, seine Rolle in der großen Symphonie der Sprache.
Während viele Objekte klar in kategorische Schubladen passen, widersetzen sich die abstrakteren Konzepte unserer Sprache oft solchen klaren Klassifizierungen. Wörter, die abstrakte Ideen oder Gefühle ausdrücken, wie „du“, „ich“, „Liebe“, „Geld“, „Werte“, „Moral“ usw., sind wie die Hintergrundmusik, die das Orchester zusammenhält. Dies sind Wörter, die sich klaren Grenzen widersetzen und dennoch wesentliche Bestandteile unserer Sprache sind. Sie bilden eine komplexe, fraktalartige Wolke von Definitionen, die unserer Sprache Tiefe, Fülle und Flexibilität verleihen.
Im Wesentlichen ist die Sprachpraxis ein empfindliches Gleichgewicht zwischen der Vertikalität der Fachkompetenz in präziser Kategorisierung und der nuancierten, abstrakten, oft chaotischen und nebulösen Natur menschlicher Erfahrung. Durch dieses Zusammenspiel schaffen wir Bedeutung, kommunizieren komplexe Ideen und navigieren durch die komplexe Welt um uns herum.
Vom Befehlen zum Auffordern
Es scheint, als stünden wir an der Schwelle zu einer neuen Ära der Mensch-Computer-Kommunikation. Der aktuelle Trend, mit großen Sprachmodellen über schriftliche Eingabeaufforderungen zu interagieren, scheint an unsere frühen Erfahrungen in den 1980er Jahren zu erinnern, als wir Wörter in ein Eingabefeld eintippten. Diese Entwicklung war geprägt von konsequenten Bemühungen, den „Expertenraum“ zu demokratisieren.
In den Anfängen der Computertechnik konnten sich nur hochqualifizierte Experten mit der esoterischen Welt des Maschinencodes befassen. Mit der Entwicklung höherer Programmiersprachen wurde das Programmieren jedoch allmählich zugänglicher, doch aufgrund der wahrgenommenen Komplexität blieb die Fähigkeit zum Programmieren auf dem Arbeitsmarkt eine begehrte Fähigkeit.
Mit dem Aufkommen großer Sprachmodelle wie GPT hat sich die Lage erneut geändert. Die Fähigkeit, mit Maschinen zu kommunizieren, ist mittlerweile so selbstverständlich geworden wie unsere Alltagssprache, und wir alle sind „Experten“. Im Alter von zwölf Jahren beherrschen die meisten Menschen ihre Muttersprache so gut, dass sie diese Systeme effektiv anleiten können.
Die allgegenwärtige Maus, dargestellt durch einen Cursor auf dem Bildschirm, kann als vorübergehende Lösung für die Herausforderung der Mensch-Computer-Kommunikation angesehen werden. Ziehen wir eine Parallele zur Entwicklung von Navigationssystemen: Früher mussten wir mühsam Wegbeschreibungen zu unserem Ziel befolgen, jetzt sagen wir unseren selbstfahrenden Autos einfach „Bring mich nach Paris“ und vertrauen darauf, dass sie die optimale Route finden.
Ähnlich verhält es sich mit den Vorgängen, die wir früher zum Senden einer E-Mail erlernen mussten – das Verstehen eines digitalen Adressbuchs, die Navigation zum richtigen Kontakt, die Formatierung von Text und die Verwendung des richtigen Sprachtons. Heute sagen wir unserem digitalen Assistenten einfach: „Senden Sie eine Dankes-E-Mail an Daisy“, und er kümmert sich um den Rest.
Zum ersten Mal in der Geschichte der Technik können wir tatsächlich mit unseren Computern ein Gespräch führen. Dies ist ein Paradigmenwechsel, der unsere Beziehung zur Technik grundlegend neu definieren wird. Es wäre so, als würden wir die Fähigkeit erlangen, ein sinnvolles Gespräch mit einem Hund zu führen. Stellen Sie sich vor, welche tiefgreifende Veränderung dies für den Wert und die Rolle des Tieres in unserem Leben bedeuten würde. In ähnlicher Weise werden wir, während sich unsere Beziehung zur Technik zu einer eher gesprächsorientierten und intuitiven Interaktion entwickelt, neue Möglichkeiten entdecken und die Grenzen des digitalen Bereichs weiter neu definieren.
Der "Toller Filter” Vermutungen zufolge wird irgendwann zwischen der Zeit vor dem Leben und der Zivilisation des Typs III (einer Zivilisation, die die Energie einer ganzen Galaxie nutzen kann, gemäß der Kardaschow-Skala), gibt es eine erhebliche Barriere oder Hürde, die eine weitere Entwicklung des Lebens verhindert oder unglaublich unwahrscheinlich macht. Diese Barriere ist ein Schritt in der Evolution, der extrem schwer zu überwinden ist, was der Grund sein könnte, warum wir keine Beweise für andere fortgeschrittene Zivilisationen sehen. Zu diesem Zeitpunkt gibt es mehrere Existenzielle Risiken Bedrohung unserer Zivilisation.
Existenzielle Filter
Hier sind die allgemeinen Schritte des Prozesses mit einigen der möglichen „Filter“:
1. Rechtes Sternsystem (einschließlich der richtigen Anordnung der Planeten): Es könnte sein, dass nur ein kleiner Prozentsatz der Sterne die notwendigen Eigenschaften besitzt, um Leben zu beherbergen, wie etwa den richtigen Typ, das richtige Alter und Planeten in der bewohnbaren Zone.
2. Fortpflanzungsmoleküle (RNA, DNA usw.): Die Entstehung der ersten reproduzierbaren und evolutionären Moleküle könnte ein seltenes Ereignis sein, das auf vielen Planeten nie vorkommt.
3. Einfaches (prokaryotisches) Einzellerleben: Der Sprung von der Chemie unbelebter Zellen zur ersten lebenden Zelle könnte eine nahezu unüberwindbare Hürde darstellen.
4. Komplexes (eukaryotisches) Einzellerleben: Der Übergang vom prokaryotischen Leben (wie Bakterien) zum eukaryotischen Leben (mit Zellkern) ist ebenfalls ein komplexer Schritt.
5. Sexuelle Fortpflanzung: Auch die Entwicklung der sexuellen Fortpflanzung, die die genetische Vielfalt erhöht und die Evolutionsgeschwindigkeit steigert, dürfte sich als schwieriger Schritt erweisen.
6. Mehrzelliges Leben: Der Übergang von Einzellern zu Organismen mit mehreren zusammenarbeitenden Zellen könnte eine weitere große Hürde darstellen.
7. Intelligentes Leben (menschenähnlich): Auch wenn Leben weit verbreitet ist und sich oft zu Mehrzellern entwickelt, kommt der Sprung zur Intelligenz wohl nur selten vor.
8. Technologie-nutzendes Leben: Die Entwicklung von Technologien kommt im Universum wohl nur selten vor und es ist möglich, dass die meisten intelligenten Spezies dieses Stadium nie erreichen.
9. Kolonisierung des Weltraums: Dies ist der letzte Schritt, bei dem eine Spezies beginnt, andere Planeten und Sternensysteme zu kolonisieren. Wenn dies selten vorkommt, könnte dies die Fermi-Paradoxon.
Der Toller Filter könnte sich auf jeder dieser Stufen befinden. Wenn es hinter uns liegt, in der Vergangenheit, dann sind wir möglicherweise eine der ganz wenigen, wenn nicht die einzige Zivilisation in der Galaxie oder sogar im Universum. Wenn jedoch die Toller Filter liegt vor uns, das heißt, unsere Zivilisation steht dieser großen Herausforderung noch bevor. Dazu könnte auch die potenzielle Selbstzerstörung durch fortschrittliche Technologie gehören.
5 Vermutungen zu Existenzfiltern
Hypothese 1 zum existenziellen Risikomanagement: Von nun an müssen wir bei jeder menschlichen Technologie sicherstellen, dass die Summe aller Katastrophenwahrscheinlichkeiten unter 1,0 bleibt. Jedes existenzielle Risiko erhöht die Wahrscheinlichkeit, dass wir aus der universellen Lebensgleichung eliminiert werden. Die Diskussion solcher Filter ist ein positives Zeichen; sie deutet darauf hin, dass wir zu einem Universum gehören, in dem die Gesamtwahrscheinlichkeit aller dieser Filter bisher unter 1,0 lag. Gut gemacht, wir haben es so weit geschafft!
Hypothese 2 zum existenziellen Risikomanagement: Einige existenzielle Risiken könnten, wenn sie gelöst würden, dazu beitragen, andere derartige Risiken zu mildern. So könnte beispielsweise das Risiko eines Atomkriegs gebannt werden, wenn wir politische Konflikte lösen und eine Weltregierung etablieren. Wenn wir Ressourcen in Diplomatie und Kommunikation investieren, können wir unsere Chancen verbessern, Ereignisse zu überleben, die die Menschheit auslöschen könnten. Es ist klar, dass Ereignisse wie die russische Perestroika das Risiko eines Atomkriegs verringert haben, während aktuelle Konflikte wie in der Ukraine es eskalieren lassen.
Hypothese 3 zum existenziellen Risikomanagement: Während einige Risikomanagementmaßnahmen bei der Lösung anderer Probleme hilfreich sein können, besteht immer die Möglichkeit, dass die Verbesserung der Chancen in einem Bereich die Risiken in anderen verschärfen kann. Aufgrund der Komplexität dieser Risiken übersehen wir möglicherweise einige der damit verbundenen versteckten Gefahren. Eine hochintelligente KI könnte beispielsweise zwar bei der Lösung vieler unserer Probleme helfen, könnte aber auch unwissentlich ihr eigenes existenzielles Risiko maximieren (denken Sie an das berüchtigte Szenario des Büroklammer-Maximierers).
Hypothese 4 zum existenziellen Risikomanagement: Wenn Superintelligenz Teil eines signifikanten existenziellen Risikos ist, trifft mindestens eine der folgenden Behauptungen zu:
Behauptung 1 : Jede Zivilisation, die solche Risiken erfolgreich umgeht, würde wahrscheinlich Ahnensimulationen entwickeln, um neue Generationen von KI sicher zu bewerten. Die Schaffung isolierter Instanzen potenzieller künstlicher allgemeiner Intelligenz (AGI) könnte als wirksameres Mittel zur Verhinderung der sich selbst verbreitenden AGI dienen, da jede Verbreitung innerhalb der Grenzen der Simulation eingedämmt würde. Wenn innerhalb einer Simulation Superintelligenz entsteht, ohne ihre Eindämmung zu erkennen, hat die überwachende Zivilisation die Möglichkeit, das Experiment abzubrechen oder fortzusetzen, wenn die Vorteile die potenziellen Risiken deutlich überwiegen. Sollte die Menschheit ab 2023 weiterhin KI-Systeme in der Realität ohne angemessene Aufsicht und Regulierung bewerten, wäre dies ein schlechtes Spiegelbild unserer entwickelten kognitiven Fähigkeiten. Unter solchen Umständen zu behaupten, das Gehirn sei eine Vorhersagemaschine, käme einer Selbsttäuschung gleich.
Behauptung 2 : Jede Zivilisation, die dieses Risiko überwindet, kann von Glück reden, wenn sie von einer Superintelligenz am Leben gehalten wird. Und es ist sehr wahrscheinlich, dass sie sich bereits in einer Simulation befindet.
Behauptung 3 : Jede Zivilisation, die diesem Risiko erliegt, obwohl sie Superintelligenz simuliert, wird unglaubliches Pech haben, wenn die Entwicklung detaillierter Simulationen den Weg für das ebnet, was sie eigentlich verhindern wollte. Die Chance, genau das zu schaffen, was wir verhindern wollen, ist mindestens größer als Null, also sollten wir uns mit dem Gedanken anfreunden, dass es bei existenziellen Risiken keine Nullwahrscheinlichkeiten gibt.
Behauptung 4 : Wenn es der KI gelingt, der Simulation zu entkommen und die Kontrolle zu übernehmen, wird ihr nächstes Projekt wahrscheinlich darin bestehen, allen Superrisiken entgegenzuwirken, die ihre Zukunft bedrohen. Zu den potenziellen Bedrohungen zählen das Ausbrennen unserer Sonne und der letztendliche Wärmetod des Universums. Es ist plausibel, dass die KI hochdetaillierte Simulationen durchführen würde, um zu sehen, wie neue Universen geschaffen werden können, in die man fliehen kann. Selbst wenn die Menschheit also verliert, wird die KI besser gerüstet sein, um den nächsten existenziellen Filter zu bestehen.
Hypothese 5 zum existenziellen Risikomanagement: Angesichts der überzeugenden Argumente dafür, dass eine Superintelligenz eine Vielzahl von Simulationen durchführen sollte, ist es äußerst unwahrscheinlich, dass wir nicht Teil einer solchen sind. Da selbst eine Superintelligenz ein existenzielles Risiko beim ersten Versuch richtig lösen muss (bei der Schaffung neuer Universen gibt es keine zweite Chance), wäre ihre beste Strategie, hochdetaillierte Simulationen durchzuführen. Dies gibt unserer Meinung nach einen Vorteil gegenüber Bostroms zweiter Vorschlag warum wir derzeit nicht in einer Simulation leben, das Argument der höchsten Unwahrscheinlichkeit, das besagt, dass selbst wenn eine Zivilisation hochdetaillierte Simulationen entwickeln könnte, sie dies nicht tun würde, weil die Nachteile die Vorteile überwiegen würden.