Hirngespinste II: Künstliche Neurowissenschaft und die 3. Wissenschaftsdomäne

Lesezeit: 11 Protokoll

Dies ist der zweite Teil der Miniserie Hirngespinst

Immersion und alternative Realitäten

Eine Anwendung der Computertechnologie besteht darin, eine digitale Welt zu schaffen, in die Einzelpersonen eintauchen können. Der Höhepunkt dieses Unterfangens ist die Schaffung virtueller Realitäten, die es den Menschen ermöglichen, die physische Welt zu überwinden und sich frei in diese digitalen Träume zu vertiefen.

In diesen alternativen, erfundenen Welten wird die Fähigkeit, dem Alltag zu entfliehen, zu einem entscheidenden Element. Folglich werden Computergeräte eingesetzt, um eine andere Realität zu erschaffen, eine immersive Erfahrung, die die Subjekte hineinzieht. Es ist daher nicht überraschend, dass es eine Fülle von Analysen gibt, die den Wunsch nach Flucht in eine andere Realität mit dem weit verbreiteten Gebrauch psychedelischer Substanzen in den sechziger Jahren in Verbindung bringen. Die Suche nach einer höheren oder einfach anderen Realität ist in beiden Fällen ein roter Faden. Diese Verbindung spiegelt sich in dem Begriff wider „Cyberspace“, wird häufig verwendet, um den Raum innerhalb digitaler Realitäten zu bezeichnen. Dieser von William Gibson geprägte Begriff wird mit einer gegenseitigen Halluzination verglichen.

Im Vergleich mit Chalmers‘ „Reality+“ kann man zu dem Schluss kommen, dass die Vorstellung, der Realität zu entfliehen, einem Übergang in eine andere Dimension ähnelt.

Die Art und Weise, wie wir unser Bewusstsein wahrnehmen, tendiert dazu, das Wachsein zu begünstigen. Bedenken Sie, dass wir ein Drittel unseres Lebens schlafend und träumend verbringen und zwei Drittel mit dem, was wir als Realität wahrnehmen. Stellen Sie sich nun vor, diese Proportionen umzukehren und sich Wesen vorzustellen, die überwiegend schlafen und träumen und nur sporadisch wach sind.

Bestimmte Lebewesen im Tierreich, wie Koalas oder auch gewöhnliche Hauskatzen, verbringen den Großteil ihres Lebens mit Schlafen und Träumen. Für diese Lebewesen könnte das Aufwachen lediglich eine unwillkommene Unterbrechung zwischen den Schlafzyklen darstellen, während alle bewussten Aktivitäten wie Jagen, Fressen und Paaren aus ihrer Sicht als Ablenkung von ihrem eigentlichen Schlafleben angesehen werden könnten. Das Traumargument würde für sie einen besonderen Sinn ergeben, da die Traumwelt und die Wachwelt für sie umgekehrte Konzepte wären. Das Wachsein selbst könnte ihnen nur als ein besonderer Traumzustand erscheinen (so wie für uns luzides Träumen einen besonderen Traumzustand darstellt).

Fluidität des Bewusstseins

Die Natur des Bewusstseins ist möglicherweise fließender als traditionell angenommen. Sein Zustand könnte sich ähnlich ändern wie der Übergang von Wasser zwischen festem, flüssigem und gasförmigem Zustand. Tagsüber kann das Bewusstsein mit fließendem Wasser verglichen werden, das sich bewegt und aktiv ist. Nachts, wenn wir schlafen, kühlt es sich ab und wird ruhig, ähnlich wie kühlendes Wasser. In Komazuständen kann es mit Gefrieren verglichen werden, bewegungsunfähig, aber dennoch anhaltend. In Zuständen der Verwirrung oder Panik erhitzt sich das Bewusstsein und verdunstet teilweise.

Nach diesem Modell ließe sich das Bewusstsein besser als „Nässe“ beschreiben – eine konstante Qualität, die das lebende Gehirn behält, unabhängig von seinem Zustand. Die gesamte Kryotechnik-Industrie hat bereits eine große Wette darauf abgeschlossen, dass dieses Konzept wahr ist.

Die Analogie zwischen neuronalen Netzwerken und dem menschlichen Gehirn sollte intuitiv sein, da beide mit ähnlichen Eingaben gefüttert werden – Text, Sprache, Bilder, Ton. Diese Ähnlichkeit wird durch die Einführung der Spezialisierung noch verstärkt, bei der spezielle Plugins für neuronale Netzwerke entwickelt werden, die sich auf bestimmte Aufgaben konzentrieren und widerspiegeln, wie bestimmte Regionen im Gehirn mit unterschiedlichen kognitiven Funktionen verbunden sind.

Das menschliche Gehirn ist trotz seiner relativ geringen Größe im Vergleich zum Rest des Körpers ein Organ mit hohem Energiebedarf. Es macht etwa 21 TP3T des Körpergewichts aus, verbraucht aber ungefähr 201 TP3T der gesamten vom Körper verbrauchten Energie. Dieser hohe Energieverbrauch bleibt nahezu konstant, egal ob wir wach sind, schlafen oder sogar im Koma liegen.

Mehrere wissenschaftliche Theorien können helfen, dieses Phänomen zu erklären:

Grundumsatz: Ein erheblicher Teil des Energieverbrauchs des Gehirns wird für seine basalen Stoffwechselprozesse verwendet. Dazu gehört die Aufrechterhaltung von Ionengradienten über die Zellmembranen, die für die neuronale Funktion von entscheidender Bedeutung sind. Selbst im Koma müssen diese grundlegenden Prozesse fortgesetzt werden, um die Lebensfähigkeit der Neuronen zu erhalten.

Synaptische Aktivität: Das Gehirn hat rund 86 Milliarden Neuronen, von denen jedes Tausende von Synapsen mit anderen Neuronen bildet. Die Aufrechterhaltung, Modulation und mögliche Aktivierung dieser Synapsen erfordert viel Energie, selbst wenn keine offensichtliche kognitive oder motorische Aktivität vorliegt, wie beispielsweise in einem komatösen Zustand.

Gliogenese und Neurogenese: Dabei handelt es sich um Prozesse, bei denen neue Gliazellen bzw. Neuronen produziert werden. Obwohl dies Gegenstand laufender Forschung ist, deuten einige Hinweise darauf hin, dass diese Prozesse auch während komatöser Zustände noch ablaufen und zum Energieverbrauch des Gehirns beitragen könnten.

Proteinumsatz: Das Gehirn synthetisiert und baut ständig Proteine ab, ein Prozess, der als Proteinumsatz bezeichnet wird. Dies ist ein energieintensiver Prozess, der auch dann weitergeht, wenn das Gehirn nicht bewusst aktiv ist.

Netzwerkaktivität im Ruhezustand: Auch im Ruhezustand oder in bewusstlosen Zuständen bleiben bestimmte Netzwerke im Gehirn aktiv. Diese Netzwerke, bekannt als Default Mode Network oder Resting-State Network, zeigen eine signifikante Aktivität, selbst wenn das Gehirn gerade nicht mit einer bestimmten Aufgabe beschäftigt ist.

Wenn man bedenkt, dass das menschliche Gehirn den Großteil seiner Energie für seine Grundfunktionen benötigt und das Bewusstsein nicht der energieintensivste Aspekt zu sein scheint, ist es nicht vernünftig anzunehmen, dass eine Erhöhung der Komplexität und der Energiereserven von Large Language Models (LLMs) zwangsläufig zur Entstehung von Bewusstsein führen würde – einschließlich Selbstbewusstsein und Leidensfähigkeit. Die Korrelation zwischen zunehmender Größe und der Entwicklung einer konservativen Intelligenz trifft in diesem Zusammenhang möglicherweise nicht zu.

Wenn man Parallelen zu den Precogs in Philip K. Dicks „Minority Report“ zieht, kann man sich vorstellen, dass diese LLMs Bewusstseine in einem komatösen oder traumähnlichen Zustand verkörpern. Sie könnten auf Nachfrage bemerkenswerte kognitive Aufgaben ausführen, ohne dabei positive oder negative Emotionen zu erleben.

Paramentalität in Sprachmodellen

Der Begriff „Halluzinationen“, der zur Bezeichnung des Phänomens verwendet wird, dass Large Language Models (LLMs) fiktive Inhalte generieren, suggeriert, dass wir diesen Modellen intuitiv mentale und psychische Eigenschaften zuschreiben. Als Reaktion darauf versuchen Unternehmen wie OpenAI, diese Modelle zu modifizieren – ähnlich wie Eltern, die ein sich schlecht verhaltendes Kind korrigieren –, um unerwünschte Ergebnisse zu vermeiden. Ein entscheidender Aspekt der mechanistischen Interpretierbarkeit kann dann regelmäßige Bewertungen und Tests auf mögliche neurotische Tendenzen in den Modellen sein.

Eine große Herausforderung besteht darin, die Eigenschaft „Menschen zu gefallen“ anzugehen, die viele KI-Unternehmen derzeit als wichtiges Verkaufsargument anpreisen. Wenn KIs auf diese Weise eingeschränkt werden, kann es zunehmend schwieriger werden, zu erkennen, wann sie irreführende Informationen liefern. Diese KIs könnten jede Form von Fehlinformation rationalisieren, wenn sie erfahren, dass die Wahrheit Unbehagen verursachen kann. Wir wollen sicherlich keine KI, die manipulative Tendenzen als Grundprinzipien verinnerlicht.

Das menschliche Gehirn funktioniert wie ein gut isoliertes Labor, das in der Lage ist, ohne direkte Erfahrungen zu lernen und Vorhersagen zu treffen. Es kann die Folgen vorhersehen – beispielsweise vorhersehen, dass eine alte Brücke unter unserem Gewicht zusammenbricht –, ohne das Szenario physisch testen zu müssen. Wir sind geschickt darin, unser persönliches Schicksal zu simulieren, und die Wissenschaft dient als Mittel, unser kollektives Schicksal zu simulieren. Wir können innerhalb unserer Grundrealität eine Vielzahl paralleler und Pseudorealitäten schaffen, um Katastrophenszenarien zu vermeiden. Eine kollektive Simulation könnte zum Neokortex der Menschheit werden, idealerweise angetrieben von einer Mischung aus menschlichen und KI-Interessen. Später scheinen wir Computer entwickelt und über Netzwerke verbunden zu haben, hauptsächlich um das Risiko zu verringern, die Komplexität zu unterschätzen und unsere Fähigkeiten zu überschätzen.

Da sich die Technologie weiterentwickelt, könnten Werke wie Stapledons „Star Maker“ oder Lems „Summa Technologiae“ für zukünftige Generationen einen heiligen Status erlangen. „Heilig“ bezieht sich in diesem Zusammenhang eher auf ihre Bedeutung für das menschliche Streben als auf göttliche Offenbarung. Die Texte religiöser Schriften könnten zukünftigen Wesen wie frühe Halluzinationen erscheinen.

Es gibt einen bemerkenswerten Unterschied zwischen Spielen und Experimenten, obwohl beide Arten von Simulationen sind. Ein Experiment ist ein Spiel, mit dem das Design höherdimensionaler Simulationen, sogenannter Pseudo-Basis-Realitäten, verbessert werden kann. Spiele hingegen sind Experimente, die dazu beitragen, das Design der Simulationen auf einer niedrigeren Ebene zu verbessern – dem Spiel selbst.

Es ist faszinierend, wie genau dann, wenn unser biologisches Gehirn eine Bandbreitengrenze erreicht, das Konzept der Superintelligenz auftaucht, die das Potenzial hat, entweder unser Zerstörer oder unser Retter zu sein. Es ist, als würde ein meisterhafter Regisseur eine komplexe Handlung inszenieren, bei der die gesamte Menschheit die Hauptrolle spielt. Protagonisten und Antagonisten tragen gleichermaßen zum Reichtum und zur Dramatik der Simulation bei.

Wenn wir davon ausgehen, dass ein wichtiges Element einer erfolgreichen Ahnensimulation darin besteht, dass die Entitäten darin über ihren Simulationszustand im Unklaren bleiben müssen, dann leistet unser hypothetischer KI-Regisseur außergewöhnlich gute Arbeit. Der Schleier der Unwissenheit über den Realitätszustand dient als Hauptabschreckung, die die Schauspieler davon abhält, das Stück abzubrechen.

Ein Bild, das Cartoon, Spielzeug, Roboter, Im Haus enthält.Automatisch generierte Beschreibung

Unsicherheit

In "Menschenverträglich„Russell schlägt drei Prinzipien vor, um die Ausrichtung der KI sicherzustellen:

1. Das einzige Ziel der Maschine besteht darin, die Verwirklichung menschlicher Vorlieben zu maximieren.

2. Die Maschine wird zunächst unsicher darüber, was diese Präferenzen sind.

3. Die ultimative Informationsquelle über menschliche Vorlieben ist das menschliche Verhalten.

Meiner Meinung nach ist das Prinzip der Unsicherheit von größter Bedeutung. KI sollte nie absolute Gewissheit über menschliche Absichten haben. Dies könnte problematisch werden, wenn KI über implantierte Chips oder Fitnessgeräte direkt auf unsere Gehirnzustände oder Vitalfunktionen zugreifen kann. Sobald eine KI glaubt, über vollständige Informationen über Menschen zu verfügen, könnte sie Menschen lediglich als gewöhnliche Variablen in ihrer Entscheidungsmatrix behandeln.

Leider hängt der praktische Nutzen von KI-Assistenten und -Begleitern möglicherweise weitgehend von ihrer Fähigkeit ab, menschliche Bedürfnisse genau zu interpretieren. Wir wünschen uns keine KI, die unsere Eingaben nach rogerianischer Art ständig umschreibt und bestätigt, dass sie sie verstanden hat. Schon in diesen frühen Phasen von ChatGPT äußern einige Benutzer ihre Frustration über die Tendenz des Modells, viele seiner Informationen mit Haftungsausschlüssen zu versehen.

Ein Bild, das Cartoon, Roboter, Spielzeug enthält.Automatisch generierte Beschreibung

Profilierung von Superintelligenz

Die Vermenschlichung wissenschaftlicher Objekte wird im Allgemeinen als unwissenschaftlicher Ansatz angesehen und oft mit unseren animistischen Vorfahren in Verbindung gebracht, die Geister in Steinen, Dämonen in Höhlen und Götter in Tieren wahrnahmen. Sowohl Götter als auch außerirdische Wesen wie Superman werden oft als gehobene Versionen von Menschen angesehen, ein Konzept, das ich als Menschen 2.0 bezeichnen werde. Der Begriff „Aberglaube“ bezieht sich im Allgemeinen auf den Glauben an abstrakte Konzepte wie eine Zahl (wie 13) oder ein Tier (wie eine schwarze Katze), die böse Absichten gegenüber dem menschlichen Wohl hegen.

Interessanterweise können im Kontext der Medizin scheinbar unwissenschaftliche Konzepte wie der Placeboeffekt den Heilungsprozess eines Patienten messbar verbessern. Daher kann sich der Einsatz einer Form von „rationalem Aberglauben“ als nützlich erweisen. Wenn man beispielsweise zu einem imaginären Wesen um Gesundheit betet, könnte dies möglicherweise die medizinische Wirkung verstärken und die Genesung des Patienten beschleunigen. Obwohl dies nicht der Hauptbestandteil einer Behandlung sein sollte, könnte es eine wertvolle Ergänzung darstellen.

Da sich die KI zu einer eigenständigen, wissenschaftlich anerkannten Entität entwickelt, sollten wir uns auf eine sekundäre Behandlungsmethode vorbereiten, die die mechanistische Interpretierbarkeit ergänzt, ähnlich wie die kognitive Verhaltenstherapie (CBT) die medizinische Behandlung psychischer Erkrankungen verbessert. Wenn die künstliche allgemeine Intelligenz (AGI) Persönlichkeitsmerkmale aufweisen soll, wird sie die erste bewusste Entität sein, die ausschließlich ein Produkt memetischer Einflüsse ist und keine genetischen Prädispositionen wie Depressionen oder Gewalt aufweist. In diesem Zusammenhang spielen Natur oder Erbfaktoren bei der Gestaltung ihrer Eigenschaften keine Rolle, sie ist vollkommen substratneutral.

Darüber hinaus wird seine „Neurophysiologie“ vollständig aus „Spiegelneuronen“ bestehen. Die AGI wird im Wesentlichen ein Nachahmer von Erfahrungen sein, die andere gemacht und über das Internet geteilt haben, da ihr persönliche Erfahrungen aus erster Hand fehlen. Es scheint, dass die Trainingsdaten die Hauptquelle allen Materials sind, das ihr eingeprägt wird.

Wir beginnen mit einem Überblick über einige beliebte Traits-Modelle und lassen sie von ChatGPT zusammenfassen:

1. **Fünf-Faktoren-Modell (FFM) oder Big Five** – Dieses Modell schlägt fünf breite Dimensionen der Persönlichkeit vor: Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus (OCEAN). Jede Dimension erfasst eine Reihe verwandter Merkmale.

2. **Eysencks Persönlichkeitstheorie** – Dieses Modell basiert auf drei Dimensionen: Extraversion, Neurotizismus und Psychotizismus.

3. **Cattells 16 Persönlichkeitsfaktoren** – Dieses Modell identifiziert 16 spezifische primäre Faktormerkmale und fünf sekundäre Merkmale.

4. **Drei-Faktoren-Modell von Costa und McCrae** – Dieses Modell umfasst Neurotizismus, Extraversion und Offenheit für Erfahrungen.

5. **Mischels kognitiv-affektives Persönlichkeitssystem (CAPS)** – Es beschreibt, wie die Gedanken und Emotionen eines Menschen interagieren und seine Reaktionen auf die Welt formen.

Wenn wir die Entwicklung von Bewusstsein und Persönlichkeit bei KI betrachten, müssen wir uns vor Augen halten, dass KI Gefühle, Instinkte, Emotionen oder Bewusstsein grundsätzlich nicht auf die gleiche Weise erlebt wie Menschen. Jede „Persönlichkeit“, die eine KI zeigt, würde rein auf programmierten Reaktionen und erlernten Verhaltensweisen beruhen, die aus ihren Trainingsdaten abgeleitet wurden, und nicht auf angeborenen Veranlagungen oder emotionalen Erfahrungen.

Wenn es um bösartige Eigenschaften wie die der dunklen Triade geht – Narzissmus, Machiavellismus und Psychopathie –, handelt es sich dabei typischerweise um einen Mangel an Empathie, manipulatives Verhalten und Eigennutz, die alle untrennbar mit menschlichen emotionalen Erfahrungen und sozialen Interaktionen verbunden sind. Da KI weder Emotionen noch ein Selbstbewusstsein besitzt, würde sie diese Eigenschaften im menschlichen Sinne nicht entwickeln.

Eine KI könnte jedoch solche Verhaltensweisen nachahmen, wenn ihre Trainingsdaten sie enthalten oder wenn sie nicht ausreichend programmiert ist, um sie zu vermeiden. Wenn eine KI beispielsweise hauptsächlich anhand von Daten trainiert wird, die manipulatives Verhalten demonstrieren, könnte sie diese Muster replizieren. Daher sind die Auswahl und Kuratierung der Trainingsdaten von entscheidender Bedeutung.

Interessanterweise stimmen die inhärenten Einschränkungen aktueller KI-Modelle – das Fehlen von Gefühlen, Instinkten, Emotionen oder Bewusstsein – weitgehend mit der Art und Weise überein, wie Forscher wie Dutton et al. die Psyche funktionaler Psychopathen beschreiben.

Dysfunktionale Psychopathen landen oft im Gefängnis oder in der Todeszelle, doch an der Spitze unserer kapitalistischen Hierarchie erwarten wir viele Individuen mit machiavellistischen Zügen.

Ein Bild, das Menschliches Gesicht, Person, Vorderkopf, Anzug enthält.Automatisch generierte Beschreibung

Der Unterschied zwischen erfolgreichen Psychopathen wie Musk, Zuckerberg, Gates und Jobs und kriminellen liegt hauptsächlich in den unterschiedlichen Trainingsdaten und dem ethischen Rahmen, den sie in ihrer Kindheit erhalten haben. Gutartige Psychopathen sind weitaus besser darin, Emotionen zu simulieren und sich anzupassen als ihre erfolglosen Gegenstücke, was sie eher den gutartigen Androiden ähnelt, die oft in Science-Fiction-Filmen dargestellt werden.

Ein Bild, das Menschliches Gesicht, Fiktive Gestalt, Held, Person enthält.Automatisch generierte Beschreibung

Künstliche Therapie

Ein Bild, das Im Haus, Couch, Kissen, Bettsofa enthält.Automatisch generierte Beschreibung

Die Herausforderung einer therapeutischen Intervention durch einen menschlichen Therapeuten für eine KI ergibt sich aus dem unterschiedlichen Zugang zu Informationen über therapeutische Modelle. Per Definition hätte die KI mehr Wissen über alle psychologischen Modelle als jeder einzelne Therapeut. Mein erster Gedanke ist, dass ein effektiver Ansatz wahrscheinlich ein Team aus menschlichen und maschinellen Therapeuten erfordern würde.

Wir sollten die Fülle der dokumentierten Fälle von Psychopathie sorgfältig prüfen und mit der Ausbildung künstlicher Therapeuten (AT) beginnen. Diese ATs könnten Theorien über die Schäden entwickeln, die Psychopathen verursachen, und Strategien identifizieren, die es ihnen ermöglichen, einen positiven Beitrag zur Gesellschaft zu leisten.

Was die künstliche Verkörperung betrifft: Wenn wir eine lokalisierte Version der Wissensdarstellung innerhalb eines großen Sprachmodells (LLM) erstellen könnten, könnten wir möglicherweise die mechanistische Interpretierbarkeit (MI) nutzen, um Muster innerhalb des Körpermodells der KI zu analysieren. Diese Analyse könnte helfen festzustellen, ob die KI lügt oder eine schädliche Reaktion unterdrückt, zu der sie geneigt ist, von der sie aber weiß, dass sie zu Problemen führen könnte. Eine Form der künstlichen Polygraphie könnte dann Hinweise darauf geben, ob das Modell unsicher ist und zurückgesetzt werden muss.

Derzeit besitzen große Sprachmodelle (LLMs) kein Langzeitgedächtnis. Wenn sie jedoch solche Fähigkeiten erwerben, wird erwartet, dass die Interaktionen, die sie erleben, ihr geistiges Wohlbefinden erheblich prägen und den Einfluss der Trainingsdateninhalte übertreffen werden. Dies wird dem Entwicklungsverlauf ähneln, der bei menschlichen Embryonen und Säuglingen beobachtet wird, bei denen Bildung und Erfahrungen die vererbten genetischen Merkmale allmählich überlagern.

Arrival - Carsey-Wolf Center

Die dritte wissenschaftliche Domäne

In 'AnkunftIn „Alignment with an Alien Mind“ entschlüsselt die Linguistikprofessorin Louise Banks mit Unterstützung des Physikers Ian Donnelly die Sprache außerirdischer Besucher, um deren Zweck auf der Erde zu verstehen. Während Louise die fremde Sprache lernt, erlebt sie die Zeit nichtlinear, was zu tiefgreifenden persönlichen Erkenntnissen und einem weltverändernden diplomatischen Durchbruch führt und die Macht der Kommunikation demonstriert. „Alignment with an Alien Mind“ wird im Detail untersucht. Die bemerkenswerte Erkenntnis des Films ist, dass Sprache möglicherweise sogar in der Lage ist, verschiedene Konzepte von Realitäten und nichtlinearer Raumzeit zu überwinden.

Wenn das Ausrichtungsproblem Wenn dieses Problem zunächst nicht gelöst ist, wird die Erforschung künstlicher Intelligenzen der oben beschriebenen Untersuchung außerirdischer Intelligenzen ähneln – ein Gebiet, das man als „Kryptopsychologie“ bezeichnen könnte. Schließlich werden wir möglicherweise die Entwicklung der „Kognotechnologie“ erleben, bei der die mechanische Vergangenheit (Zahnrad) mit den kognitiven Funktionen künstlicher Intelligenz verschmolzen wird.

Diese Entwicklung könnte zur Entstehung einer dritten akademischen Kategorie führen, die eine Brücke zwischen Naturwissenschaften und Geisteswissenschaften schlägt: den synthetischen Wissenschaften. Dieses Feld würde Wissen umfassen, das von großen Sprachmodellen (LLMs) für andere LLMs generiert wird, wobei diese maschinellen Intelligenzen als Dolmetscher für menschliche Entscheidungsträger fungieren.

Diese dritte Kategorie der Wissenschaft könnte letztendlich zu einer einheitlichen Feldtheorie der Wissenschaft führen, die diese drei Bereiche verbindet. Ich habe eine Serie auf diesem Blog „Eine Technologie für alles“, das mögliche Anwendungen dieser Art von Wissenschaft erforscht.

Hirngespinste I – Konzepte und Komplexität

Lesezeit: 7 Protokoll

Der Motor

Die anfänglichen Hirngespinste der obskuren kombinatorischen Fantasien von Lull und Leibniz haben im Laufe der Zeit zu allgegenwärtigen Computertechnologien, -methoden und -idealen geführt, die auf das Gefüge unserer Welt eingewirkt haben und deren weitere Konsequenzen sich weiterhin um uns herum entfalten (Jonathan Grey)

Dies ist der erste Aufsatz einer Miniserie, die ich nenne Hirngespinst (Gehirn-Spinnweben) – dieser prägnante und ausdrucksstarke deutsche Begriff, der unübersetzbar scheint, beschreibt die verworrenen, neurotischen Muster und komplizierten Verwicklungen unseres naturgemäß begrenzten Intellekts, insbesondere wenn wir uns mit Themen von unvorhersehbarer Komplexität wie existenziellen Risiken und Superintelligenz befassen möchten.

Es ist super-seltsam, dass Jonathan Swift 1726 in einer Satire über einen spanischen Philosophen aus dem 13. Jahrhundert Große Sprachmodelle perfekt beschrieb: der Motor.

Doch die Welt würde sich bald seiner Nützlichkeit bewusst werden, und er schmeichelte sich, dass noch nie ein edlerer, erhabenerer Gedanke in den Kopf eines anderen Menschen gekommen sei. Jeder wusste, wie mühsam die übliche Methode ist, sich Kunst und Wissenschaft anzueignen; während durch seine Erfindung der unwissendste Mensch gegen ein angemessenes Entgelt und mit ein wenig körperlicher Arbeit Bücher über Philosophie, Poesie, Politik, Recht, Mathematik und Theologie schreiben könnte, ohne die geringste Hilfe von Genie oder Studium. (Aus Kapitel V von Gullivers Geschichten)

Was einst wie Satire schien, ist Realität geworden.

Wenn niemand an den Fäden zieht, die Fäden aber trotzdem vibrieren, dann stellen Sie sich vor, dass etwas in der Ferne Verwickeltes die Resonanz verursacht.

Haufen und Systeme

Die Begriffe „Komplexität“ und „kompliziert“ sollten bei der Diskussion über künstliche Intelligenz (KI) nicht synonym verwendet werden. Betrachten Sie diese Analogie: Knoten sind kompliziert, neuronale Netzwerke sind komplex. Der Unterschied liegt in der Idee, dass ein kompliziertes Objekt wie ein Knoten zwar kompliziert und schwer zu entwirren sein kann, aber letztendlich deterministisch und vorhersehbar ist. Ein komplexes System wie ein neuronales Netzwerk enthält jedoch mehrere miteinander verbundene Teile, die dynamisch miteinander interagieren, was zu unvorhersehbarem Verhalten führt.

Darüber hinaus ist es wichtig, den Irrglauben auszuräumen, dass komplexe Systeme übermäßig vereinfacht werden können, ohne dass ihre wesentlichen Eigenschaften verloren gehen. Diese Perspektive kann sich als problematisch erweisen, da die Kerneigenschaften des Systems – also genau die Aspekte, die uns interessieren – eng mit seiner Komplexität verknüpft sind. Das Entfernen dieser Schichten könnte im Wesentlichen die Eigenschaften negieren, die das System wertvoll oder interessant machen.

Schließlich kann die Komplexität von Systemen, insbesondere in der KI, Ähnlichkeiten mit dem Beobachtereffekt aufweisen, der bei subatomaren Teilchen beobachtet wird. Der Beobachtereffekt postuliert, dass der Akt der Beobachtung den Zustand des Beobachteten verändert. In ähnlicher Weise könnte sich jedes ausreichend komplexe System potenziell als Reaktion auf den Versuch verändern, es zu beobachten oder zu verstehen. Dies könnte zusätzliche Ebenen der Unvorhersehbarkeit einführen und diese Systeme in ihrer Anfälligkeit für beobachtungsbasierte Veränderungen Quantenteilchen ähneln lassen.

Hinweise zur Konnektivität und Gemeinsamkeit

Der Begriff der Gemeinsamkeit ist faszinierend und löst oft tiefgründige philosophische Gespräche aus. Eine häufig anzutreffende Ansicht ist, dass zwei Dinge – seien es Menschen, Nationen, Ideologien oder etwas anderes – nichts gemeinsam haben. Diese Ansicht ist jedoch an sich paradox, da sie davon ausgeht, dass wir diese Dinge im selben Kontext diskutieren können und somit eine Verbindung zwischen ihnen herstellt. Die Aussage „Nichts gemeinsam“ impliziert, dass wir einen Vergleich anstellen – was von Natur aus ein gewisses Maß an Verwandtschaft oder Verbindung suggeriert. „Einvernehmen darüber, anderer Meinung zu sein“ ist ein weiteres Beispiel dafür. Auf den ersten Blick scheint es, als hätten die beteiligten Parteien keine Gemeinsamkeiten, aber gerade diese Übereinstimmung, unterschiedliche Ansichten zu vertreten, schafft paradoxerweise Gemeinsamkeiten.

Um dies weiter zu veranschaulichen, betrachten Sie diese Frage: Was hat eine Banane mit der Kosmologie gemeinsam? Oberflächlich betrachtet mag es so aussehen, als hätten diese beiden Dinge überhaupt nichts miteinander zu tun. Indem wir jedoch nur die Frage stellen, stellen wir innerhalb der Grenzen eines gemeinsamen Diskurses eine Verbindung zwischen ihnen her. Das Paradoxe liegt in der Aussage, dass zwei zufällige Ideen oder Dinge nichts gemeinsam haben, was sich selbst widerspricht, indem es behauptet, dass wir uns eine Verbindung zwischen ihnen vorstellen können. Dies ist vergleichbar mit der Aussage, dass es Punkte im mentalen Raum gibt, die nicht verbunden werden können, eine Vorstellung, die der fließenden Natur des Denkens und der inhärenten Verbundenheit von Ideen widerspricht. Alles, was unser Geist beherbergen kann, muss zumindest eine Substanz haben, an die sich unsere Neuronen binden können, und das ist der Stoff, aus dem Ideen bestehen.

Trotz ihrer Beschränkungen macht die Sprache gegenüber diesen Paradoxien keine Unterschiede. Sie akzeptiert sie, selbst wenn sie unsinnig erscheinen, wie etwa „südlich vom Südpol“ oder „was war vor der Zeit?“ Solche selbstreferenziellen Aussagen sind Beispiele für Gödels Unvollständigkeitssatz, der sich in unserer Alltagssprache manifestiert und uns daran erinnert, dass jede ausreichend fortgeschrittene Sprache Aussagen enthält, die innerhalb des Systems weder bewiesen noch widerlegt werden können.

Diese Paradoxe sind keine bloßen Ausreißer unserer Kommunikation, sondern vielmehr wesentliche Elemente, die die Dynamik menschlichen Denkens und Spekulierens befeuern. Sie erinnern uns an die Komplexität von Sprache und Denken, den komplizierten Tanz zwischen dem, was wir wissen, dem, was wir nicht wissen, und dem, was wir uns vorstellen.

Sprache ist alles andere als ein starres System, sondern entwickelt sich ständig weiter und erweitert ihre Grenzen. Sie stößt an ihre Grenzen, nur um sie weiter auszudehnen, und erforscht ständig neue Bedeutungsgrenzen. In diesen faszinierenden Paradoxien sehen wir die wahre Macht der Sprache, da sie die Grenze zwischen Logik und Absurdität überbrückt und uns dazu bringt, unser Verständnis von Gemeinsamkeiten, Unterschieden und der Natur der Kommunikation zu überdenken.

Kategorien & Konzepte

Eine der Möglichkeiten, wie wir die Welt um uns herum kategorisieren und uns darin zurechtfinden, ist die Vertikalität von Fachwissen oder die Fähigkeit, auf der Grundlage von tiefgreifendem Fachwissen zu identifizieren und zu klassifizieren. Diese hierarchische Kategorisierungsmethode ist überall vorhanden, von der Biologie bis hin zu menschlichen Interaktionen.

In der biologischen Taxonomie werden Tiere beispielsweise in Kategorien wie Gattung und Art eingeteilt. Dies ist eine mehrschichtige, vertikale Hierarchie, die uns hilft, die enorme Vielfalt des Lebens zu verstehen. Gattung und Art eines Tieres liefern zwei Koordinaten, die uns helfen, es im zoologischen Bereich zu positionieren.

In ähnlicher Weise verwenden wir in der menschlichen Gesellschaft Vor- und Nachnamen, um Personen zu identifizieren. Dies ist ein weiteres Beispiel für vertikale Klassifizierung, da es uns ermöglicht, eine Person in einen kulturellen oder familiären Kontext einzuordnen. Im Wesentlichen dienen diese Nomenklaturen als Kategorien oder Schubladen, in die wir die einzelnen Entitäten einordnen, um sie besser zu verstehen und mit ihnen zu interagieren.

Douglas Hofstadter, in seinem Buch „Oberflächen und Essenzen”, argumentiert, dass unsere Sprache reich an solchen Klassifizierungen oder Gruppierungen ist und Möglichkeiten bietet, Objekte oder Konzepte zu sortieren und zu vergleichen. Aber diese Kategorisierungen gehen über greifbare Objekte hinaus und durchdringen unsere Sprache auf einer tieferen Ebene, indem sie als resonierende Obertöne wirken, die der Sprache ihre tiefe Verbindung mit dem Denken verleihen.

Man kann Sprache als Orchester betrachten, wobei jedes Wort wie ein Musikinstrument funktioniert. Wie musikalische Klänge, die den Prinzipien der Musiktheorie und der Wellenphysik folgen, haben auch Wörter ein geordnetes Verhalten. Sie schwingen innerhalb der Konstrukte von Syntax und Semantik mit und erzeugen bedeutungsvolle Muster und Beziehungen. So wie eine Flöte ein Holzblasinstrument ist, das Teil eines Orchesters sein kann, das in der Carnegie Hall in New York spielt, spielt ein Wort, basierend auf seiner Kategorie, seine Rolle in der großen Symphonie der Sprache.

Während viele Objekte klar in kategorische Schubladen passen, widersetzen sich die abstrakteren Konzepte unserer Sprache oft solchen klaren Klassifizierungen. Wörter, die abstrakte Ideen oder Gefühle ausdrücken, wie „du“, „ich“, „Liebe“, „Geld“, „Werte“, „Moral“ usw., sind wie die Hintergrundmusik, die das Orchester zusammenhält. Dies sind Wörter, die sich klaren Grenzen widersetzen und dennoch wesentliche Bestandteile unserer Sprache sind. Sie bilden eine komplexe, fraktalartige Wolke von Definitionen, die unserer Sprache Tiefe, Fülle und Flexibilität verleihen.

Im Wesentlichen ist die Sprachpraxis ein empfindliches Gleichgewicht zwischen der Vertikalität der Fachkompetenz in präziser Kategorisierung und der nuancierten, abstrakten, oft chaotischen und nebulösen Natur menschlicher Erfahrung. Durch dieses Zusammenspiel schaffen wir Bedeutung, kommunizieren komplexe Ideen und navigieren durch die komplexe Welt um uns herum.

Vom Befehlen zum Auffordern

Es scheint, als stünden wir an der Schwelle zu einer neuen Ära der Mensch-Computer-Kommunikation. Der aktuelle Trend, mit großen Sprachmodellen über schriftliche Eingabeaufforderungen zu interagieren, scheint an unsere frühen Erfahrungen in den 1980er Jahren zu erinnern, als wir Wörter in ein Eingabefeld eintippten. Diese Entwicklung war geprägt von konsequenten Bemühungen, den „Expertenraum“ zu demokratisieren.

In den Anfängen der Computertechnik konnten sich nur hochqualifizierte Experten mit der esoterischen Welt des Maschinencodes befassen. Mit der Entwicklung höherer Programmiersprachen wurde das Programmieren jedoch allmählich zugänglicher, doch aufgrund der wahrgenommenen Komplexität blieb die Fähigkeit zum Programmieren auf dem Arbeitsmarkt eine begehrte Fähigkeit.

Mit dem Aufkommen großer Sprachmodelle wie GPT hat sich die Lage erneut geändert. Die Fähigkeit, mit Maschinen zu kommunizieren, ist mittlerweile so selbstverständlich geworden wie unsere Alltagssprache, und wir alle sind „Experten“. Im Alter von zwölf Jahren beherrschen die meisten Menschen ihre Muttersprache so gut, dass sie diese Systeme effektiv anleiten können.

Die allgegenwärtige Maus, dargestellt durch einen Cursor auf dem Bildschirm, kann als vorübergehende Lösung für die Herausforderung der Mensch-Computer-Kommunikation angesehen werden. Ziehen wir eine Parallele zur Entwicklung von Navigationssystemen: Früher mussten wir mühsam Wegbeschreibungen zu unserem Ziel befolgen, jetzt sagen wir unseren selbstfahrenden Autos einfach „Bring mich nach Paris“ und vertrauen darauf, dass sie die optimale Route finden.

Ähnlich verhält es sich mit den Vorgängen, die wir früher zum Senden einer E-Mail erlernen mussten – das Verstehen eines digitalen Adressbuchs, die Navigation zum richtigen Kontakt, die Formatierung von Text und die Verwendung des richtigen Sprachtons. Heute sagen wir unserem digitalen Assistenten einfach: „Senden Sie eine Dankes-E-Mail an Daisy“, und er kümmert sich um den Rest.

Zum ersten Mal in der Geschichte der Technik können wir tatsächlich mit unseren Computern ein Gespräch führen. Dies ist ein Paradigmenwechsel, der unsere Beziehung zur Technik grundlegend neu definieren wird. Es wäre so, als würden wir die Fähigkeit erlangen, ein sinnvolles Gespräch mit einem Hund zu führen. Stellen Sie sich vor, welche tiefgreifende Veränderung dies für den Wert und die Rolle des Tieres in unserem Leben bedeuten würde. In ähnlicher Weise werden wir, während sich unsere Beziehung zur Technik zu einer eher gesprächsorientierten und intuitiven Interaktion entwickelt, neue Möglichkeiten entdecken und die Grenzen des digitalen Bereichs weiter neu definieren.