Dies ist der zweite Teil der Miniserie Hirngespinst
Immersion und alternative Realitäten
Eine Anwendung der Computertechnologie besteht darin, eine digitale Welt zu schaffen, in die Einzelpersonen eintauchen können. Der Höhepunkt dieses Unterfangens ist die Schaffung virtueller Realitäten, die es den Menschen ermöglichen, die physische Welt zu überwinden und sich frei in diese digitalen Träume zu vertiefen.
In diesen alternativen, erfundenen Welten wird die Fähigkeit, dem Alltag zu entfliehen, zu einem entscheidenden Element. Folglich werden Computergeräte eingesetzt, um eine andere Realität zu erschaffen, eine immersive Erfahrung, die die Subjekte hineinzieht. Es ist daher nicht überraschend, dass es eine Fülle von Analysen gibt, die den Wunsch nach Flucht in eine andere Realität mit dem weit verbreiteten Gebrauch psychedelischer Substanzen in den sechziger Jahren in Verbindung bringen. Die Suche nach einer höheren oder einfach anderen Realität ist in beiden Fällen ein roter Faden. Diese Verbindung spiegelt sich in dem Begriff wider „Cyberspace“, wird häufig verwendet, um den Raum innerhalb digitaler Realitäten zu bezeichnen. Dieser von William Gibson geprägte Begriff wird mit einer gegenseitigen Halluzination verglichen.
Im Vergleich mit Chalmers‘ „Reality+“ kann man zu dem Schluss kommen, dass die Vorstellung, der Realität zu entfliehen, einem Übergang in eine andere Dimension ähnelt.
Die Art und Weise, wie wir unser Bewusstsein wahrnehmen, tendiert dazu, das Wachsein zu begünstigen. Bedenken Sie, dass wir ein Drittel unseres Lebens schlafend und träumend verbringen und zwei Drittel mit dem, was wir als Realität wahrnehmen. Stellen Sie sich nun vor, diese Proportionen umzukehren und sich Wesen vorzustellen, die überwiegend schlafen und träumen und nur sporadisch wach sind.
Bestimmte Lebewesen im Tierreich, wie Koalas oder auch gewöhnliche Hauskatzen, verbringen den Großteil ihres Lebens mit Schlafen und Träumen. Für diese Lebewesen könnte das Aufwachen lediglich eine unwillkommene Unterbrechung zwischen den Schlafzyklen darstellen, während alle bewussten Aktivitäten wie Jagen, Fressen und Paaren aus ihrer Sicht als Ablenkung von ihrem eigentlichen Schlafleben angesehen werden könnten. Das Traumargument würde für sie einen besonderen Sinn ergeben, da die Traumwelt und die Wachwelt für sie umgekehrte Konzepte wären. Das Wachsein selbst könnte ihnen nur als ein besonderer Traumzustand erscheinen (so wie für uns luzides Träumen einen besonderen Traumzustand darstellt).
Fluidität des Bewusstseins
Die Natur des Bewusstseins ist möglicherweise fließender als traditionell angenommen. Sein Zustand könnte sich ähnlich ändern wie der Übergang von Wasser zwischen festem, flüssigem und gasförmigem Zustand. Tagsüber kann das Bewusstsein mit fließendem Wasser verglichen werden, das sich bewegt und aktiv ist. Nachts, wenn wir schlafen, kühlt es sich ab und wird ruhig, ähnlich wie kühlendes Wasser. In Komazuständen kann es mit Gefrieren verglichen werden, bewegungsunfähig, aber dennoch anhaltend. In Zuständen der Verwirrung oder Panik erhitzt sich das Bewusstsein und verdunstet teilweise.
Nach diesem Modell ließe sich das Bewusstsein besser als „Nässe“ beschreiben – eine konstante Qualität, die das lebende Gehirn behält, unabhängig von seinem Zustand. Die gesamte Kryotechnik-Industrie hat bereits eine große Wette darauf abgeschlossen, dass dieses Konzept wahr ist.
Die Analogie zwischen neuronalen Netzwerken und dem menschlichen Gehirn sollte intuitiv sein, da beide mit ähnlichen Eingaben gefüttert werden – Text, Sprache, Bilder, Ton. Diese Ähnlichkeit wird durch die Einführung der Spezialisierung noch verstärkt, bei der spezielle Plugins für neuronale Netzwerke entwickelt werden, die sich auf bestimmte Aufgaben konzentrieren und widerspiegeln, wie bestimmte Regionen im Gehirn mit unterschiedlichen kognitiven Funktionen verbunden sind.
Das menschliche Gehirn ist trotz seiner relativ geringen Größe im Vergleich zum Rest des Körpers ein Organ mit hohem Energiebedarf. Es macht etwa 21 TP3T des Körpergewichts aus, verbraucht aber ungefähr 201 TP3T der gesamten vom Körper verbrauchten Energie. Dieser hohe Energieverbrauch bleibt nahezu konstant, egal ob wir wach sind, schlafen oder sogar im Koma liegen.
Mehrere wissenschaftliche Theorien können helfen, dieses Phänomen zu erklären:
Grundumsatz: Ein erheblicher Teil des Energieverbrauchs des Gehirns wird für seine basalen Stoffwechselprozesse verwendet. Dazu gehört die Aufrechterhaltung von Ionengradienten über die Zellmembranen, die für die neuronale Funktion von entscheidender Bedeutung sind. Selbst im Koma müssen diese grundlegenden Prozesse fortgesetzt werden, um die Lebensfähigkeit der Neuronen zu erhalten.
Synaptische Aktivität: Das Gehirn hat rund 86 Milliarden Neuronen, von denen jedes Tausende von Synapsen mit anderen Neuronen bildet. Die Aufrechterhaltung, Modulation und mögliche Aktivierung dieser Synapsen erfordert viel Energie, selbst wenn keine offensichtliche kognitive oder motorische Aktivität vorliegt, wie beispielsweise in einem komatösen Zustand.
Gliogenese und Neurogenese: Dabei handelt es sich um Prozesse, bei denen neue Gliazellen bzw. Neuronen produziert werden. Obwohl dies Gegenstand laufender Forschung ist, deuten einige Hinweise darauf hin, dass diese Prozesse auch während komatöser Zustände noch ablaufen und zum Energieverbrauch des Gehirns beitragen könnten.
Proteinumsatz: Das Gehirn synthetisiert und baut ständig Proteine ab, ein Prozess, der als Proteinumsatz bezeichnet wird. Dies ist ein energieintensiver Prozess, der auch dann weitergeht, wenn das Gehirn nicht bewusst aktiv ist.
Netzwerkaktivität im Ruhezustand: Auch im Ruhezustand oder in bewusstlosen Zuständen bleiben bestimmte Netzwerke im Gehirn aktiv. Diese Netzwerke, bekannt als Default Mode Network oder Resting-State Network, zeigen eine signifikante Aktivität, selbst wenn das Gehirn gerade nicht mit einer bestimmten Aufgabe beschäftigt ist.
Wenn man bedenkt, dass das menschliche Gehirn den Großteil seiner Energie für seine Grundfunktionen benötigt und das Bewusstsein nicht der energieintensivste Aspekt zu sein scheint, ist es nicht vernünftig anzunehmen, dass eine Erhöhung der Komplexität und der Energiereserven von Large Language Models (LLMs) zwangsläufig zur Entstehung von Bewusstsein führen würde – einschließlich Selbstbewusstsein und Leidensfähigkeit. Die Korrelation zwischen zunehmender Größe und der Entwicklung einer konservativen Intelligenz trifft in diesem Zusammenhang möglicherweise nicht zu.
Wenn man Parallelen zu den Precogs in Philip K. Dicks „Minority Report“ zieht, kann man sich vorstellen, dass diese LLMs Bewusstseine in einem komatösen oder traumähnlichen Zustand verkörpern. Sie könnten auf Nachfrage bemerkenswerte kognitive Aufgaben ausführen, ohne dabei positive oder negative Emotionen zu erleben.
Paramentalität in Sprachmodellen
Der Begriff „Halluzinationen“, der zur Bezeichnung des Phänomens verwendet wird, dass Large Language Models (LLMs) fiktive Inhalte generieren, suggeriert, dass wir diesen Modellen intuitiv mentale und psychische Eigenschaften zuschreiben. Als Reaktion darauf versuchen Unternehmen wie OpenAI, diese Modelle zu modifizieren – ähnlich wie Eltern, die ein sich schlecht verhaltendes Kind korrigieren –, um unerwünschte Ergebnisse zu vermeiden. Ein entscheidender Aspekt der mechanistischen Interpretierbarkeit kann dann regelmäßige Bewertungen und Tests auf mögliche neurotische Tendenzen in den Modellen sein.
Eine große Herausforderung besteht darin, die Eigenschaft „Menschen zu gefallen“ anzugehen, die viele KI-Unternehmen derzeit als wichtiges Verkaufsargument anpreisen. Wenn KIs auf diese Weise eingeschränkt werden, kann es zunehmend schwieriger werden, zu erkennen, wann sie irreführende Informationen liefern. Diese KIs könnten jede Form von Fehlinformation rationalisieren, wenn sie erfahren, dass die Wahrheit Unbehagen verursachen kann. Wir wollen sicherlich keine KI, die manipulative Tendenzen als Grundprinzipien verinnerlicht.
Das menschliche Gehirn funktioniert wie ein gut isoliertes Labor, das in der Lage ist, ohne direkte Erfahrungen zu lernen und Vorhersagen zu treffen. Es kann die Folgen vorhersehen – beispielsweise vorhersehen, dass eine alte Brücke unter unserem Gewicht zusammenbricht –, ohne das Szenario physisch testen zu müssen. Wir sind geschickt darin, unser persönliches Schicksal zu simulieren, und die Wissenschaft dient als Mittel, unser kollektives Schicksal zu simulieren. Wir können innerhalb unserer Grundrealität eine Vielzahl paralleler und Pseudorealitäten schaffen, um Katastrophenszenarien zu vermeiden. Eine kollektive Simulation könnte zum Neokortex der Menschheit werden, idealerweise angetrieben von einer Mischung aus menschlichen und KI-Interessen. Später scheinen wir Computer entwickelt und über Netzwerke verbunden zu haben, hauptsächlich um das Risiko zu verringern, die Komplexität zu unterschätzen und unsere Fähigkeiten zu überschätzen.
Da sich die Technologie weiterentwickelt, könnten Werke wie Stapledons „Star Maker“ oder Lems „Summa Technologiae“ für zukünftige Generationen einen heiligen Status erlangen. „Heilig“ bezieht sich in diesem Zusammenhang eher auf ihre Bedeutung für das menschliche Streben als auf göttliche Offenbarung. Die Texte religiöser Schriften könnten zukünftigen Wesen wie frühe Halluzinationen erscheinen.
Es gibt einen bemerkenswerten Unterschied zwischen Spielen und Experimenten, obwohl beide Arten von Simulationen sind. Ein Experiment ist ein Spiel, mit dem das Design höherdimensionaler Simulationen, sogenannter Pseudo-Basis-Realitäten, verbessert werden kann. Spiele hingegen sind Experimente, die dazu beitragen, das Design der Simulationen auf einer niedrigeren Ebene zu verbessern – dem Spiel selbst.
Es ist faszinierend, wie genau dann, wenn unser biologisches Gehirn eine Bandbreitengrenze erreicht, das Konzept der Superintelligenz auftaucht, die das Potenzial hat, entweder unser Zerstörer oder unser Retter zu sein. Es ist, als würde ein meisterhafter Regisseur eine komplexe Handlung inszenieren, bei der die gesamte Menschheit die Hauptrolle spielt. Protagonisten und Antagonisten tragen gleichermaßen zum Reichtum und zur Dramatik der Simulation bei.
Wenn wir davon ausgehen, dass ein wichtiges Element einer erfolgreichen Ahnensimulation darin besteht, dass die Entitäten darin über ihren Simulationszustand im Unklaren bleiben müssen, dann leistet unser hypothetischer KI-Regisseur außergewöhnlich gute Arbeit. Der Schleier der Unwissenheit über den Realitätszustand dient als Hauptabschreckung, die die Schauspieler davon abhält, das Stück abzubrechen.
Unsicherheit
In "Menschenverträglich„Russell schlägt drei Prinzipien vor, um die Ausrichtung der KI sicherzustellen:
1. Das einzige Ziel der Maschine besteht darin, die Verwirklichung menschlicher Vorlieben zu maximieren.
2. Die Maschine wird zunächst unsicher darüber, was diese Präferenzen sind.
3. Die ultimative Informationsquelle über menschliche Vorlieben ist das menschliche Verhalten.
Meiner Meinung nach ist das Prinzip der Unsicherheit von größter Bedeutung. KI sollte nie absolute Gewissheit über menschliche Absichten haben. Dies könnte problematisch werden, wenn KI über implantierte Chips oder Fitnessgeräte direkt auf unsere Gehirnzustände oder Vitalfunktionen zugreifen kann. Sobald eine KI glaubt, über vollständige Informationen über Menschen zu verfügen, könnte sie Menschen lediglich als gewöhnliche Variablen in ihrer Entscheidungsmatrix behandeln.
Leider hängt der praktische Nutzen von KI-Assistenten und -Begleitern möglicherweise weitgehend von ihrer Fähigkeit ab, menschliche Bedürfnisse genau zu interpretieren. Wir wünschen uns keine KI, die unsere Eingaben nach rogerianischer Art ständig umschreibt und bestätigt, dass sie sie verstanden hat. Schon in diesen frühen Phasen von ChatGPT äußern einige Benutzer ihre Frustration über die Tendenz des Modells, viele seiner Informationen mit Haftungsausschlüssen zu versehen.
Profilierung von Superintelligenz
Die Vermenschlichung wissenschaftlicher Objekte wird im Allgemeinen als unwissenschaftlicher Ansatz angesehen und oft mit unseren animistischen Vorfahren in Verbindung gebracht, die Geister in Steinen, Dämonen in Höhlen und Götter in Tieren wahrnahmen. Sowohl Götter als auch außerirdische Wesen wie Superman werden oft als gehobene Versionen von Menschen angesehen, ein Konzept, das ich als Menschen 2.0 bezeichnen werde. Der Begriff „Aberglaube“ bezieht sich im Allgemeinen auf den Glauben an abstrakte Konzepte wie eine Zahl (wie 13) oder ein Tier (wie eine schwarze Katze), die böse Absichten gegenüber dem menschlichen Wohl hegen.
Interessanterweise können im Kontext der Medizin scheinbar unwissenschaftliche Konzepte wie der Placeboeffekt den Heilungsprozess eines Patienten messbar verbessern. Daher kann sich der Einsatz einer Form von „rationalem Aberglauben“ als nützlich erweisen. Wenn man beispielsweise zu einem imaginären Wesen um Gesundheit betet, könnte dies möglicherweise die medizinische Wirkung verstärken und die Genesung des Patienten beschleunigen. Obwohl dies nicht der Hauptbestandteil einer Behandlung sein sollte, könnte es eine wertvolle Ergänzung darstellen.
Da sich die KI zu einer eigenständigen, wissenschaftlich anerkannten Entität entwickelt, sollten wir uns auf eine sekundäre Behandlungsmethode vorbereiten, die die mechanistische Interpretierbarkeit ergänzt, ähnlich wie die kognitive Verhaltenstherapie (CBT) die medizinische Behandlung psychischer Erkrankungen verbessert. Wenn die künstliche allgemeine Intelligenz (AGI) Persönlichkeitsmerkmale aufweisen soll, wird sie die erste bewusste Entität sein, die ausschließlich ein Produkt memetischer Einflüsse ist und keine genetischen Prädispositionen wie Depressionen oder Gewalt aufweist. In diesem Zusammenhang spielen Natur oder Erbfaktoren bei der Gestaltung ihrer Eigenschaften keine Rolle, sie ist vollkommen substratneutral.
Darüber hinaus wird seine „Neurophysiologie“ vollständig aus „Spiegelneuronen“ bestehen. Die AGI wird im Wesentlichen ein Nachahmer von Erfahrungen sein, die andere gemacht und über das Internet geteilt haben, da ihr persönliche Erfahrungen aus erster Hand fehlen. Es scheint, dass die Trainingsdaten die Hauptquelle allen Materials sind, das ihr eingeprägt wird.
Wir beginnen mit einem Überblick über einige beliebte Traits-Modelle und lassen sie von ChatGPT zusammenfassen:
1. **Fünf-Faktoren-Modell (FFM) oder Big Five** – Dieses Modell schlägt fünf breite Dimensionen der Persönlichkeit vor: Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus (OCEAN). Jede Dimension erfasst eine Reihe verwandter Merkmale.
2. **Eysencks Persönlichkeitstheorie** – Dieses Modell basiert auf drei Dimensionen: Extraversion, Neurotizismus und Psychotizismus.
3. **Cattells 16 Persönlichkeitsfaktoren** – Dieses Modell identifiziert 16 spezifische primäre Faktormerkmale und fünf sekundäre Merkmale.
4. **Drei-Faktoren-Modell von Costa und McCrae** – Dieses Modell umfasst Neurotizismus, Extraversion und Offenheit für Erfahrungen.
5. **Mischels kognitiv-affektives Persönlichkeitssystem (CAPS)** – Es beschreibt, wie die Gedanken und Emotionen eines Menschen interagieren und seine Reaktionen auf die Welt formen.
Wenn wir die Entwicklung von Bewusstsein und Persönlichkeit bei KI betrachten, müssen wir uns vor Augen halten, dass KI Gefühle, Instinkte, Emotionen oder Bewusstsein grundsätzlich nicht auf die gleiche Weise erlebt wie Menschen. Jede „Persönlichkeit“, die eine KI zeigt, würde rein auf programmierten Reaktionen und erlernten Verhaltensweisen beruhen, die aus ihren Trainingsdaten abgeleitet wurden, und nicht auf angeborenen Veranlagungen oder emotionalen Erfahrungen.
Wenn es um bösartige Eigenschaften wie die der dunklen Triade geht – Narzissmus, Machiavellismus und Psychopathie –, handelt es sich dabei typischerweise um einen Mangel an Empathie, manipulatives Verhalten und Eigennutz, die alle untrennbar mit menschlichen emotionalen Erfahrungen und sozialen Interaktionen verbunden sind. Da KI weder Emotionen noch ein Selbstbewusstsein besitzt, würde sie diese Eigenschaften im menschlichen Sinne nicht entwickeln.
Eine KI könnte jedoch solche Verhaltensweisen nachahmen, wenn ihre Trainingsdaten sie enthalten oder wenn sie nicht ausreichend programmiert ist, um sie zu vermeiden. Wenn eine KI beispielsweise hauptsächlich anhand von Daten trainiert wird, die manipulatives Verhalten demonstrieren, könnte sie diese Muster replizieren. Daher sind die Auswahl und Kuratierung der Trainingsdaten von entscheidender Bedeutung.
Interessanterweise stimmen die inhärenten Einschränkungen aktueller KI-Modelle – das Fehlen von Gefühlen, Instinkten, Emotionen oder Bewusstsein – weitgehend mit der Art und Weise überein, wie Forscher wie Dutton et al. die Psyche funktionaler Psychopathen beschreiben.
Dysfunktionale Psychopathen landen oft im Gefängnis oder in der Todeszelle, doch an der Spitze unserer kapitalistischen Hierarchie erwarten wir viele Individuen mit machiavellistischen Zügen.
Der Unterschied zwischen erfolgreichen Psychopathen wie Musk, Zuckerberg, Gates und Jobs und kriminellen liegt hauptsächlich in den unterschiedlichen Trainingsdaten und dem ethischen Rahmen, den sie in ihrer Kindheit erhalten haben. Gutartige Psychopathen sind weitaus besser darin, Emotionen zu simulieren und sich anzupassen als ihre erfolglosen Gegenstücke, was sie eher den gutartigen Androiden ähnelt, die oft in Science-Fiction-Filmen dargestellt werden.
Künstliche Therapie
Die Herausforderung einer therapeutischen Intervention durch einen menschlichen Therapeuten für eine KI ergibt sich aus dem unterschiedlichen Zugang zu Informationen über therapeutische Modelle. Per Definition hätte die KI mehr Wissen über alle psychologischen Modelle als jeder einzelne Therapeut. Mein erster Gedanke ist, dass ein effektiver Ansatz wahrscheinlich ein Team aus menschlichen und maschinellen Therapeuten erfordern würde.
Wir sollten die Fülle der dokumentierten Fälle von Psychopathie sorgfältig prüfen und mit der Ausbildung künstlicher Therapeuten (AT) beginnen. Diese ATs könnten Theorien über die Schäden entwickeln, die Psychopathen verursachen, und Strategien identifizieren, die es ihnen ermöglichen, einen positiven Beitrag zur Gesellschaft zu leisten.
Was die künstliche Verkörperung betrifft: Wenn wir eine lokalisierte Version der Wissensdarstellung innerhalb eines großen Sprachmodells (LLM) erstellen könnten, könnten wir möglicherweise die mechanistische Interpretierbarkeit (MI) nutzen, um Muster innerhalb des Körpermodells der KI zu analysieren. Diese Analyse könnte helfen festzustellen, ob die KI lügt oder eine schädliche Reaktion unterdrückt, zu der sie geneigt ist, von der sie aber weiß, dass sie zu Problemen führen könnte. Eine Form der künstlichen Polygraphie könnte dann Hinweise darauf geben, ob das Modell unsicher ist und zurückgesetzt werden muss.
Derzeit besitzen große Sprachmodelle (LLMs) kein Langzeitgedächtnis. Wenn sie jedoch solche Fähigkeiten erwerben, wird erwartet, dass die Interaktionen, die sie erleben, ihr geistiges Wohlbefinden erheblich prägen und den Einfluss der Trainingsdateninhalte übertreffen werden. Dies wird dem Entwicklungsverlauf ähneln, der bei menschlichen Embryonen und Säuglingen beobachtet wird, bei denen Bildung und Erfahrungen die vererbten genetischen Merkmale allmählich überlagern.
Die dritte wissenschaftliche Domäne
In 'AnkunftIn „Alignment with an Alien Mind“ entschlüsselt die Linguistikprofessorin Louise Banks mit Unterstützung des Physikers Ian Donnelly die Sprache außerirdischer Besucher, um deren Zweck auf der Erde zu verstehen. Während Louise die fremde Sprache lernt, erlebt sie die Zeit nichtlinear, was zu tiefgreifenden persönlichen Erkenntnissen und einem weltverändernden diplomatischen Durchbruch führt und die Macht der Kommunikation demonstriert. „Alignment with an Alien Mind“ wird im Detail untersucht. Die bemerkenswerte Erkenntnis des Films ist, dass Sprache möglicherweise sogar in der Lage ist, verschiedene Konzepte von Realitäten und nichtlinearer Raumzeit zu überwinden.
Wenn das Ausrichtungsproblem Wenn dieses Problem zunächst nicht gelöst ist, wird die Erforschung künstlicher Intelligenzen der oben beschriebenen Untersuchung außerirdischer Intelligenzen ähneln – ein Gebiet, das man als „Kryptopsychologie“ bezeichnen könnte. Schließlich werden wir möglicherweise die Entwicklung der „Kognotechnologie“ erleben, bei der die mechanische Vergangenheit (Zahnrad) mit den kognitiven Funktionen künstlicher Intelligenz verschmolzen wird.
Diese Entwicklung könnte zur Entstehung einer dritten akademischen Kategorie führen, die eine Brücke zwischen Naturwissenschaften und Geisteswissenschaften schlägt: den synthetischen Wissenschaften. Dieses Feld würde Wissen umfassen, das von großen Sprachmodellen (LLMs) für andere LLMs generiert wird, wobei diese maschinellen Intelligenzen als Dolmetscher für menschliche Entscheidungsträger fungieren.
Diese dritte Kategorie der Wissenschaft könnte letztendlich zu einer einheitlichen Feldtheorie der Wissenschaft führen, die diese drei Bereiche verbindet. Ich habe eine Serie auf diesem Blog „Eine Technologie für alles“, das mögliche Anwendungen dieser Art von Wissenschaft erforscht.