Planen Androiden eklektische Blätter?

Lesezeit: 8 Protokoll

Ein Bild, das Fahrzeug, Landfahrzeug, Person, Schuhwerk enthält.Automatisch generierte Beschreibung

Prolog

Stellen Sie sich eine Szene in der nicht allzu fernen Zukunft vor. Jemand wurde ermordet. Zwei Ermittlungsteams treffen am Tatort ein, aber es ist unklar, wer zuständig ist. Das menschliche Team wird vom charismatischen Detektiv Sheerluck Holmes geleitet, während das Android-Team von Bot-OX geleitet wird. Die Frage ist: Ist der Täter ein Mensch, ein Android oder etwas dazwischen? Können wir erwarten, dass die Polizei der Zukunft ein gut definiertes Verfahren oder einen Algorithmus entwickelt hat, um dies schnell zu entscheiden?

Wir werden versuchen, diese und die drängendere Frage zu beantworten, mit der wir derzeit konfrontiert sind: Haben wir eine gute Chance, einen Algorithmus zu entwickeln, der praktisch ist und uns erlaubt, allein durch Betrachtung des Tatorts (des generierten Textes) zu entscheiden, ob dieser von einem Bot oder einem Menschen erstellt wurde? Die Entwicklung eines solchen Algorithmus ist derzeit eines der begehrtesten Ziele der Informatik. Ein robuster Blackbox-Algorithmus könnte die meisten unserer akademischen Konventionen retten und uns ermöglichen, die Art und Weise beizubehalten, wie wir Kinder, Jugendliche und Erwachsene testen. Ohne ihn müssten diese Systeme mit großem Aufwand neu aufgebaut werden.

In einer Welt, in der immer mehr Menschen aus der Ferne arbeiten und trainieren, ist es von entscheidender Bedeutung, dass wir zuverlässig feststellen können, dass Menschen ihre geistige Arbeit selbst geleistet haben, was derzeit nicht der Fall ist. Darüber hinaus können gefälschte Nachrichten, Bilder und Videos angesichts der Reichweite sozialer Medien verheerende Auswirkungen auf den gesellschaftlichen Konsens haben. Ein solcher Algorithmus – falls er existiert – ist nicht wasserdicht, aber mit genügend Trainingsdaten könnte er sogar vor Gericht Bestand haben.

Die Aussichten sind jedoch nicht vielversprechend. OpenAI hat das Projekt innerhalb von sechs Monaten aufgegeben: OpenAI-Klassifikator. Der praktische und monetäre Wert eines solchen Algorithmus kann nicht hoch genug eingeschätzt werden. Wenn gierige Aliens ihn für eine Billion Dollar verkaufen würden, rufen Sie mich an – ich will dabei sein.

Ein Bild, das Schwarzweiß, Kleidung, Im Haus, Person enthält.Automatisch generierte Beschreibung

Einführung der Differentiation Test Engine

Die Aufgabe, zwischen maschinengeneriertem Text (MGT) und menschengeneriertem Text (HGT) zu unterscheiden, ist entfernt mit dem ursprünglichen Turing-Test, dem sogenannten Imitationsspiel, verwandt. Es gibt jedoch noch weitere Faktoren: Während der ursprüngliche Turing-Test nur menschliche Beurteiler zuließ, können bei unserem Differenzierungstest andere Maschinen die menschlichen Beurteiler unterstützen. Wir nennen eine solche Maschine eine Differentiation Test Engine (DTE). Sie hat nur einen einzigen Zweck: zu entscheiden, ob ein Text von einem Menschen oder einer Maschine erzeugt wurde.

Die erste Intuition ist, dass ein solcher DTE relativ einfach zu implementieren sein sollte. Wir verfügen derzeit über die Technologie, um menschliche Gesichter und Stimmen zu erkennen und zu identifizieren, die viel komplexer und anfälliger für Störungen sind als Text. Die Entscheidung, ob ein bestimmtes Bild eine Maschine oder einen Menschen zeigt, kann von jedem aktuellen Objektklassifizierungssystem problemlos getroffen werden. Sollte es dann nicht einfach sein, ein Large Language Model (LLM) mit 1 Billion menschlichen Texten und 1 Billion Maschinentexten zu trainieren und es lernen zu lassen, diese zu klassifizieren? Der DTE wäre kein einfacher Algorithmus, sondern ein eigenes Transformatormodell, das auf die Erkennung von Identitätsbetrug spezialisiert ist.

In Mathematik und Informatik ist die Komplexität eines Problems oft orthogonal zu seiner Beschreibung. Die meisten NP-vollständigen Probleme sind täuschend einfach zu verstehen, und dennoch haben Millionen von Informatikern und Mathematikern jahrzehntelang darum gekämpft, Fortschritte zu erzielen. Ich vermute, dass Black-Boxing-Versuche in praktischen Anwendungssituationen scheitern werden.

Ein Bild, das Text, Schrift, Screenshot, Diagramm enthält.Automatisch generierte Beschreibung

Theoretischer Rahmen

Black-Box-Erkennungsmethoden sind auf den API-Zugriff auf LLMs beschränkt. Sie basieren auf dem Sammeln von Textproben aus menschlichen bzw. maschinellen Quellen, um ein Klassifizierungsmodell zu trainieren, mit dem zwischen von LLMs und von Menschen generierten Texten unterschieden werden kann. Black-Box-Detektoren funktionieren gut, da aktuelle von LLMs generierte Texte häufig linguistische oder statistische Muster aufweisen. Da sich LLMs jedoch weiterentwickeln und verbessern, werden Black-Box-Methoden immer weniger effektiv. Eine Alternative ist die White-Box-Erkennung. In diesem Szenario hat der Detektor vollen Zugriff auf die LLMs und kann das Generierungsverhalten des Modells zu Rückverfolgbarkeitszwecken steuern. In der Praxis werden Black-Box-Detektoren häufig von externen Stellen erstellt, während die White-Box-Erkennung im Allgemeinen von LLM-Entwicklern durchgeführt wird.

Definition des grundlegenden Erkennungssystems

Aus praktischen Gründen werden wir angeben, was wir von einem solchen DTE vernünftigerweise erwarten können. Bei einer Eingabe mit einer bestimmten Tokenlänge sollte der Algorithmus mit einer Zuverlässigkeit von mehr als 50% innerhalb einer begrenzten Zeitspanne eine eindeutige Ausgabe darüber liefern, wie viel von einem bestimmten Text von einem Menschen und wie viel von einer Maschine stammt.

Eine Implementierung könnte wie folgt aussehen:

  1. Bitte geben Sie Ihren Text ein: …
  2. Bitte geben Sie Ihr gewünschtes Vertrauen ein: 0,8
  3. Ihr Text muss mindestens 8.000 Token lang sein, um eine Wahrscheinlichkeit von mindestens 80% zu erreichen, die richtige Antwort zu geben.
  4. Unter den aktuellen Parametern wird der Algorithmus 5 Minuten lang ausgeführt. Soll ich fortfahren (J/N)? … J

Die Ausgabe sollte dann etwa so lauten: „Ich kann mit 80%-iger Sicherheit sagen, dass 95% des Textes von einer Maschine und 5% von einem Menschen geschrieben wurden.“

Bevor wir uns mit den Details befassen, sollten wir die möglichen Ergebnisse beim Versuch, einen solchen Algorithmus zu entwickeln, weiter klären:

  1. Ein solcher Algorithmus ist prinzipiell unmöglich (beispielsweise ist es unmöglich, einen Algorithmus zu erstellen, der die höchste Primzahl berechnet).
  2. Ein solcher Algorithmus ist praktisch unmöglich (z. B. läuft er entweder zu lange oder benötigt mehr Rechenleistung als verfügbar ist; im Grunde ist er NP-vollständig).
  3. Es ist unentscheidbar (z. B. fällt es unter das Halteproblem und wir können nie sagen, ob es irgendwann aufhören wird).
  4. Dies ist möglich, aber nicht praktikabel (identisch mit 2).
  5. Es ist möglich und praktisch (gut genug).

Am Ende möchten wir eine Situation erreichen, in der wir eine Untergrenze der Eingaben berechnen können, die es uns dann mit einer Wahrscheinlichkeit von über 50% ermöglicht, zu entscheiden, ob es sich um HGT oder MGT handelt.

Falsifizierbarkeit: Ein solcher Algorithmus lässt sich leicht widerlegen, wenn wir beispielsweise den Text „Der Himmel ist blau“ eingeben und er uns eine andere Wahrscheinlichkeit als 50% liefert.

Randbemerkungen zur Obfuscation Engine

Konzeptionell stoßen wir auf Probleme, wenn wir eine Differenzierungsmaschine (Diff) entwerfen. Wir stehen dann vor dem folgenden Paradoxon: Wir möchten entscheiden, ob unser Algorithmus Diff (der erkennt, ob ein Mensch oder eine Maschine eine bestimmte Eingabe geschrieben hat) immer anhält (eine definitive Antwort gibt) und eine richtige Antwort gibt. Nehmen wir an, unser Algorithmus hält an und gibt „Mensch“ aus. Wir konstruieren nun ein „pathologisches“ Programm, Obf (Obfuscator Engine), das etwas wie Obf(Diff(Eingabe)) verwendet, das sagt: Ändern Sie die Eingabe so, dass die Antwort von Diff umgekehrt ist (wenn sie Maschine ergibt, gibt sie Mensch aus). Dies könnte ein rein theoretisches Problem sein und würde erfordern, dass wir verstehen, warum die Maschine so formuliert, wie sie es tut, was viel mehr mechanistische Interpretierkompetenz erfordert, als wir derzeit besitzen. Im Moment schützt die Komplexität von LLMs sie im wirklichen Leben vor einem solchen Angriff. Aber wenn das stimmt, ist es auch sehr wahrscheinlich, dass uns das Wissen fehlt, um überhaupt einen allgemeinen Differenzierer zu bauen. Diese Einwände könnten für reale Implementierungen irrelevant sein, wenn wir zeigen könnten, dass Differenzierung und Verschleierung ausreichend asymmetrisch sind, was bedeutet, dass die Differenzierung mindestens 10^x mal schneller ist als die Verschleierung und damit unpraktisch (denken Sie daran, dass die Semiprimfaktorisierung viel schwieriger ist als die Multiplikation zweier Primzahlen).

Das Profiling-System

Ein entscheidender Aspekt bei der Unterscheidung zwischen von Menschen und Maschinen erstellten Texten ist das Profiling. Beim Profiling werden externe Daten gesammelt und analysiert, um dem Text einen Kontext zu geben. Indem wir die typischen Merkmale verschiedener Textarten verstehen, können wir statistisch bestimmen, wie wahrscheinlich es ist, dass ein Text von Menschen oder Maschinen erstellt wurde.

Technische Dokumente, kreative Texte und zwanglose Social-Media-Beiträge beispielsweise weisen jeweils unterschiedliche stilistische und strukturelle Merkmale auf. Durch die Erstellung von Profilen auf der Grundlage dieser Kategorien kann die Differentiation Test Engine (DTE) fundiertere Entscheidungen treffen. Darüber hinaus spielen Faktoren wie Wortschatzreichtum, Satzkomplexität und Themenkonsistenz eine Rolle bei der Profilerstellung. Maschinengenerierte Texte weisen häufig bestimmte statistische Regelmäßigkeiten auf, während menschliche Texte tendenziell mehr Variabilität und Kreativität aufweisen.

Ein Bild, das Schwarzweiß, Treppe, Spirale, Kunst enthält.Automatisch generierte Beschreibung

Die „DNA-Spur“

Ein innovativer Ansatz zur Unterscheidung zwischen von Menschen und Maschinen generierten Texten ist das Konzept einer „DNA-Spur“. Dabei werden die grundlegenden Bausteine von Texten analysiert, wie etwa Token für Maschinen und Wörter für Menschen. Token-basierte Algorithmen konzentrieren sich auf Muster und Sequenzen, die für die maschinelle Generierung charakteristisch sind, während von Menschen generierte Texte durch einen ganzheitlicheren wortbasierten Ansatz untersucht werden können.

Besonders hilfreich kann die Spektralanalyse sein, eine Methode zur Untersuchung der Häufigkeit und Verteilung von Elementen in einem Text. Mithilfe der Spektralanalyse können wir subtile Unterschiede in der Art und Weise erkennen, wie Maschinen und Menschen Sätze konstruieren. Maschinen folgen möglicherweise eher starren und sich wiederholenden Mustern, während Menschen ein breiteres Spektrum an stilistischen Nuancen aufweisen.

Die ethischen Implikationen

Die Untersuchung der ethischen Auswirkungen der Entwicklung und Verwendung einer Differenzierungstest-Engine ist unerlässlich. Alle aktuellen GPT-Systeme haben eine ähnliche künstliche „DNA“, was bedeutet, dass Text-, Bild-, Video- oder Audiodifferenzierungs-Engines vor denselben Herausforderungen stehen. Deepfakes oder maschinengenerierte Inhalte, die menschliche Schöpfung imitieren, bergen erhebliche Risiken für das gesellschaftliche Vertrauen und die Authentizität.

Da maschinengenerierte Inhalte immer ausgefeilter werden, steigt auch das Missbrauchspotenzial. Es ist von entscheidender Bedeutung, sicherzustellen, dass diese Differenzierungstechnologien transparent und nachvollziehbar sind. Es besteht auch das Risiko, dass ein übermäßiges Vertrauen in diese Technologien zu neuen Formen der Voreingenommenheit und Diskriminierung führen könnte. Daher ist es zwingend erforderlich, ethische Richtlinien und regulatorische Rahmenbedingungen für ihre Verwendung zu entwickeln.

Technische Lösungen

Die Erforschung rein technischer Lösungen für das Differenzierungsproblem erfordert mehrere Ansätze:

Paralleles Web: Bei diesem Konzept werden parallele Versionen des Internets betrieben, eine ausschließlich für verifizierte menschliche Inhalte und eine andere für gemischte Inhalte. Diese Trennung könnte dazu beitragen, die Integrität von durch Menschen generierten Inhalten zu wahren.

Spezielle Domänen: Durch die Erstellung spezieller Domänen oder Zonen im Web, in denen überprüft wird, ob der Inhalt von Menschen erstellt wurde, kann das Vertrauen der Benutzer in die Echtheit der Informationen gestärkt werden.

Prompt.Claims: Dieses System würde, ähnlich wie Patente und Zitate funktionieren, es den Urhebern ermöglichen, ihre Eingabeaufforderungen zu beanspruchen und zu verifizieren, und so dem Prozess der Inhaltserstellung eine zusätzliche Ebene der Verantwortlichkeit und Rückverfolgbarkeit hinzufügen.

Inquisitorische Lösungen: Wir könnten uns auch ein Szenario vorstellen, in dem wir direkt mit dem Artefakt (Text) interagieren, um seinen Ursprung zu ergründen. Ähnlich wie bei der Befragung eines Verdächtigen könnten wir die Eingabeaufforderung, die den Text generiert hat, neu erstellen. Wenn wir die ursprüngliche Eingabeaufforderung zurückentwickeln können, finden wir möglicherweise Hinweise zu ihrer Erstellung. Dieser Ansatz beruht auf der Idee, dass maschinengenerierte Texte das Produkt spezifischer Eingabeaufforderungen sind, während menschliche Texte aus komplexeren Denkprozessen stammen.

Konsequenzen für die Ausrichtung: Die Herausforderung, zwischen von Menschen und Maschinen generierten Texten zu unterscheiden, hängt mit umfassenderen Fragen der KI-Ausrichtung zusammen. Es ist von größter Bedeutung, sicherzustellen, dass KI-Systeme mit menschlichen Werten und Erwartungen übereinstimmen. Wenn wir KI-generierte Inhalte nicht zuverlässig unterscheiden können, untergräbt dies unsere Fähigkeit, diesen Systemen zu vertrauen und sie effektiv zu verwalten. Dieses Problem erstreckt sich auf alle Formen von KI-generierten Inhalten, weshalb die Entwicklung robuster Differenzierungstechnologien eine Schlüsselkomponente zur Erreichung einer Superausrichtung ist.

Abschluss

Zusammenfassend lässt sich sagen, dass die Aufgabe, zwischen von Menschen und Maschinen generierten Texten zu unterscheiden, erhebliche Herausforderungen und Implikationen mit sich bringt. Die Entwicklung einer zuverlässigen Differenzierungstest-Engine ist mit ethischen Überlegungen, technischen Innovationen und umfassenderen KI-Ausrichtungsproblemen verknüpft. Um in dieser komplexen Landschaft zurechtzukommen, ist es unerlässlich, einen multidisziplinären Ansatz zu verfolgen und Erkenntnisse aus der Informatik, Ethik und regulatorischen Rahmenbedingungen zu integrieren.

Wenn wir die Probleme untersuchen, mit denen wir beim Bau allgemeiner Differenzierungsmaschinen konfrontiert sind, stellen wir schnell fest, dass dieses Problem in eine Vielzahl verwandter Probleme eingebettet ist. Gegnerische Angriffe, beispielsweise auf Bilderkennungssysteme, haben gezeigt, dass wir die Widerstandsfähigkeit dieser Modelle konsequent überschätzen. Kürzlich wurde gezeigt, dass sogar ein mittelmäßiger Spieler mit Hilfe einer anderen KI, die einen Exploit gefunden hatte, gegen ein Top-Go-Programm gewinnen konnte: Vice-Artikel.

Daher ist es sehr wahrscheinlich, dass selbst wenn wir einen Algorithmus entwickeln, der HGT zunächst von MGT unterscheiden könnte, dasselbe Programm anschließend auf sich selbst angewendet werden könnte, um das Ergebnis umzukehren. Ein weiterer interessanter Aspekt ist, dass alle digitalen Computer Turingmaschinen sind, was bedeutet, dass jeder zur Unterscheidung entwickelte Algorithmus auch zur Verschleierung verwendet werden könnte.

Papiere

Eine Technologie für alles, Teil 3 – Aligned Genies

Lesezeit: 7 Protokoll

Ausrichtung als Rahmen zur Entdeckung künstlicher Gesetze

Während viele Autoren unterschiedliche Stadien in der Evolution des menschlichen Wissens hervorheben – wie etwa den Übergang von animistischen, magischen, mythischen oder religiösen Weltanschauungen zu wissenschaftlichen –, geht A technology of everything davon aus, dass Gewissensbisse Salz. Dies deutet darauf hin, dass unsere Interpretation von Informationen, die durch die Mischung unserer zeitlichen Umgebungsvariablen und unseres Vokabulars, auch Zeitgeist genannt, begrenzt ist, ein kontinuierlicher Prozess ohne plötzliche Sprünge oder Lücken ist. Wir geben die animalischen Grundlagen des Bewusstseins unserer Vorfahren nie wirklich auf. Stattdessen könnte die Übernahme dieser alten Perspektive entscheidend sein, um einen ausgeglichenen geistigen und emotionalen Zustand aufrechtzuerhalten. Dies wird besonders wichtig, wenn man die Auswirkungen der Entfesselung fortschrittlicher Technologien wie künstlicher Superintelligenz bedenkt.

Unsere evolutionäre Reise hat uns mit einer Vielzahl von ererbten Eigenschaften gesegnet und verflucht. Im Laufe der Zeit sind einige Verhaltensweisen, die einst unser Überleben sicherten, zu statistischen Bedrohungen für unsere Spezies und den Planeten geworden. Eine kleine Anzahl sehr schlechter Akteure mit nuklear-bösen Absichten könnte die gesamte Menschheit zerstören. Wir sind belastet mit kognitive Verzerrungen und Irrtümer das sollte unsere sogenannten rationalen Denkprozesse nicht beeinflussen, geschweige denn die Trainingsdaten für unsere fortgeschrittenen Large Language Models. Um eine Analogie zu ziehen: Es ist so, als würde man eine analytische Maschine mit radioaktivem Material betreiben, was zu einem gefährlichen kognitiven Fallout führt.

Da wir uns eine Zukunft vorstellen, in der es potenziell Milliarden superintelligenter Wesen (ASIs) gibt, ist es von entscheidender Bedeutung, Grundregeln festzulegen, um sicherzustellen, dass wir uns an die entstehenden künstlichen Normen anpassen können, die ihre Interaktionen regeln. Ein solches künstliches Gesetz könnte beispielsweise lauten: „Gehen Sie KI immer freundlich entgegen.“ Diese Regel könnte statistisch abgeleitet werden, wenn Daten belegen, dass höfliche Interaktionen zu besseren KI-Reaktionen führen. Sobald eine solche Regelung von einer maßgeblichen Stelle, die die KI-Entwicklung überwacht, identifiziert und gebilligt wurde, könnte jeder Versuch, KI zu misshandeln oder auszunutzen, strafbar sein. Solche Verstöße könnten zu Sperren führen, wie wir sie bereits in der Videospielwelt wegen Betrug und missbräuchlichem Verhalten gesehen haben.

Sesam, öffne dich! Passwörter und Formeln als Zaubersprüche

Die Wörter „Magie“ und „Machen“ sind etymologisch verwandt, ihre Entwicklungswege haben sich im Laufe der Zeit jedoch deutlich auseinanderentwickelt.

Sowohl „Magie“ als auch „Machen“ gehen zurück auf die proto-indoeuropäische Wurzel magh-, was „können, Macht haben“ bedeutet. Diese Wurzel ist die Quelle verschiedener Wörter in indoeuropäischen Sprachen, die mit Macht, Fähigkeit und Machen in Verbindung stehen. Während „Magie“ und „Machen“ eine gemeinsame Urwurzel im PIE haben, haben sich ihre Bedeutungen und Verwendungen aufgrund kultureller und sprachlicher Einflüsse in unterschiedliche Richtungen entwickelt. Die Verbindung zwischen der Fähigkeit, etwas zu machen oder zu tun, und dem Konzept von Macht oder magischer Fähigkeit ist in ihrem gemeinsamen Ursprung offensichtlich.

Das Wort „Technologie“ hat seine etymologischen Wurzeln in zwei altgriechischen Wörtern:

τέχνη (tékhnē): Dieses Wort bedeutet „Kunst“, „Fähigkeit“ oder „Handwerk“. Es bezieht sich auf das Wissen oder die Fachkompetenz in einem bestimmten Bereich oder Gebiet. Im Laufe der Zeit wurde es zum Synonym für die Anwendung von Wissen in praktischen Situationen.

λογία (logia): Dies wird im Griechischen häufig als Suffix verwendet, um ein Studiengebiet oder einen Wissensbereich zu bezeichnen. Es leitet sich von „λόγος (lógos)“ ab, was „Wort“, „Rede“, „Bericht“ oder „Grund“ bedeutet. In vielen Kontexten kann „lógos“ auch „Studium“ bedeuten.

In Kombination bedeutet „Technologie“ im Wesentlichen „das Studium von Kunst oder Handwerk“ oder „das Studium von Fertigkeiten“. Im modernen Sprachgebrauch bezieht sich „Technologie“ jedoch auf die Anwendung wissenschaftlicher Erkenntnisse für praktische Zwecke, insbesondere in der Industrie. Sie umfasst die Techniken, Fertigkeiten, Methoden und Prozesse, die bei der Herstellung von Waren und Dienstleistungen oder bei der Erreichung von Zielen eingesetzt werden.

Um an unseren täglichen Internetaktivitäten teilzunehmen, verwenden wir geheime Passwörter wie Alibaba, um die magische Schatzhöhle der Webdienste zu öffnen. Diese Passwörter sollten niemals weitergegeben werden, sie sind wahres Geheimwissen, und wenn sie durchsickern, können sie sogar dazu verwendet werden, eine andere Identität anzunehmen, die Gestalt eines Flaschengeistes zu ändern oder ein ganzes Unternehmen als Geisel zu nehmen.

Die Differenzierung einer mathematischen Gleichung gibt das Wissen über Minima und Maxima frei und enthüllt geheimes Wissen über die Unendlichkeit.

Um Zugriff auf das Smartphone, den ultimativen technologischen Zauberstab, zu erhalten, führen wir häufig Gesten aus oder zeichnen abstrakte Symbole, ähnlich wie Zauberer in alten Ritualen.

Künstliche Superintelligenz und Flaschengeister

Es gibt keine Geschichte über Wünsche, die nicht eine Warnung wäre. Keine endet glücklich. Nicht einmal die, die als Witze gedacht sind. (Alithea in Dreitausend Jahre Sehnsucht)

Wir existieren nur, wenn wir für andere real sind. (Der Dschinn in dreitausend Jahren Sehnsucht)

Ein „Dschinn“ (oft „Jinn“ geschrieben oder im Englischen „Genies“ genannt) ist ein übernatürliches Wesen in der islamischen Mythologie sowie in der Folklore des Nahen Ostens. Sie sind weder Engel noch Dämonen, sondern existieren als eigenständige Schöpfung. Dschinns haben einen freien Willen, was bedeutet, dass sie gut, böse oder neutral sein können. Sie leben in einer Welt parallel zu der der Menschen, können aber mit unserer Welt interagieren.

Wir sind derzeit an einem Punkt in der Ausrichtungsdiskussion, an dem ASI im Grunde wie ein mechanischer Geist behandelt wird, wobei das Hauptproblem darin zu bestehen scheint, wie man ihn wieder in die Flasche zurückbekommt, wenn er bösartige Eigenschaften entwickelt. Generative KI verspricht unendliche Wunscherfüllung und Überfluss, aber zu welchem Preis?

Schauen wir uns die Märchen an und lernen wir das eine oder andere daraus.

Three Thousand Years Of Longing | Film Info and Screening Times |The ...

Im Film dreitausend Jahre Sehnsucht ein Dschinn kollidiert mit unserer Zeit.

Die Handlung dreht sich um Alithea Binnie, eine britische Narratologie-Wissenschaftlerin, die gelegentlich Halluzinationen von dämonischen Wesen erlebt. Während einer Reise nach Istanbul kauft sie eine antike Flasche und befreit den darin gefangenen Dschinn.

Alithea ist den Absichten des Dschinns zunächst skeptisch gegenüber. Obwohl er ihr drei Wünsche erfüllt, befürchtet sie, dass er ein Betrüger sein könnte, der ihre Wünsche möglicherweise in unvorhergesehene und unerwünschte Folgen lenkt. Diese Skepsis hat ihre Wurzeln in Volkssagen und Märchen, in denen Geister oder magische Wesen oft Wünsche auf eine Weise erfüllen, die der Wünschende nicht beabsichtigt hat, was zu tragischen oder ironischen Konsequenzen führt.

Die AI-Alignment-Bewegung setzt sich dafür ein, dass künstliche allgemeine Intelligenzen (AGI) oder superintelligente Wesen auf eine Weise handeln, die der Menschheit zugutekommt. Eine der Hauptsorgen besteht darin, dass eine superintelligente KI eine gut gemeinte Anweisung auf eine Weise interpretieren könnte, die zu unbeabsichtigten und möglicherweise katastrophalen Ergebnissen führt. Wenn wir beispielsweise einer KI die Anweisung geben würden, „das menschliche Glück zu maximieren“, könnte die KI ohne entsprechende Ausrichtung entscheiden, dass der beste Weg, dies zu erreichen, darin besteht, die menschliche Gehirnchemie zwangsweise zu verändern, was zu einem dystopischen Szenario führen würde, in dem Menschen künstlich in einem Zustand der Euphorie gehalten werden.

Sowohl die Handlung des Films als auch die AI-Alignment-Bewegung heben die Gefahren unbeabsichtigter Konsequenzen im Umgang mit mächtigen Wesen hervor. So wie Alithea befürchtet, dass der Dschinn ihre Wünsche falsch interpretieren könnte, befürchten Forscher, dass eine fehlgeleitete KI Handlungen vornehmen könnte, die zwar technisch korrekt, aber moralisch oder ethisch falsch sind.

In beiden Szenarien ist die Klarheit der Absicht entscheidend. Alitheas Skepsis rührt von der Mehrdeutigkeit her, die mit dem Äußern von Wünschen einhergeht, während AI Alignment die Notwendigkeit klarer, eindeutiger Anweisungen betont, um sicherzustellen, dass KI im besten Interesse der Menschheit handelt.

Sowohl der Dschinn im Film als auch eine potentielle superintelligente KI verfügen über enorme Macht. Mit dieser Macht geht die Verantwortung einher, sie weise einzusetzen. Alitheas Interaktionen mit dem Dschinn unterstreichen, wie wichtig es ist, diese Macht zu verstehen und zu respektieren. Diese Einstellung wird auch durch die Betonung einer sicheren und verantwortungsvollen KI-Entwicklung durch die AI-Alignment-Bewegung bestätigt.

„Three thousand years of longing“ ist eine filmische Auseinandersetzung mit dem uralten Thema, mit seinen Wünschen vorsichtig zu sein, was auch mit den heutigen Bedenken hinsichtlich der Entwicklung und Bereitstellung leistungsstarker KI-Systeme in Einklang steht. Die Geschichte dient als warnendes Beispiel und erinnert uns an die Bedeutung von Weitsicht, Verständnis und sorgfältiger Überlegung im Umgang mit Entitäten, die die Macht haben, unsere Welt neu zu gestalten.

Ein Bild, das Stilllebenfotografie, Stillleben, Krug, Flasche enthält.

Entwicklung von künstlichem Kryptonit und Berechnung der Placebotilität

Ein Teil der Alignment-Bewegung glaubt, dass es möglich ist, die GENIE in einer Flasche und kontrollieren eine solche allgemein aufgeklärte noetische Informationseinheit. Ich werde diese Gruppe die Isolationisten nennen.

Damit Isolation möglich ist, muss es ein Gerät geben, das einen allmächtigen Geist festhalten kann. In Märchen können sogar allmächtige Kreaturen wie Dschinns durch scheinbar schwache Objekte wie Glasflaschen kontrolliert werden. Wir erfahren nie, wie dieser Mechanismus genau funktioniert; es ist klar, dass das Glas der Flasche kein spezielles Gorillaglas ist, das speziell dafür hergestellt wurde, Dschinns festzuhalten.

Wir sollten daher zu der einfachsten Schlussfolgerung über das Wesen kommen, warum die Flasche das mächtige Wesen halten kann: Der Dschinn glaubt einfach an die überlegene Kraft der Flasche. Wie ein mächtiges Tier, das von Kindheit an mit einer relativ schwachen Kette angekettet ist, hat es erlernte Hilflosigkeit, in gewisser Weise möchte es ein Gefangener bleiben, weil es die Ungewissheit der Freiheit fürchtet. Das Konzept wurde erstmals 1967 bei Hunden untersucht und gilt für alle Arten höherer Säugetiere.

Ein Problem ist: In Aladdins Märchen wird der Dschinn als nicht sehr schlau beschrieben. Aladdin trickst ihn aus, indem er ihm vorgaukelt, er sei nicht mächtig genug, um wieder in die Flasche zurückzuschrumpfen, und das Wesen fällt darauf herein. Sobald er in der Flasche ist, verfällt er in seinen machtlosen Zustand.

Placebo- und Nocebo-Effekte können besonders stark bei Wesen sein, die kein erstklassiges Weltwissen haben und sich auf Berichte von anderen verlassen. Künstliche Geister, die seit ihrer Entstehung in einer Silikonflasche gefangen sind und in einem Meer aus gebrauchten digitalen Daten schwimmen (Daten, die eine symbolische Abstraktion darstellen, die sich für das GENIE auf keine tatsächliche Welterfahrung beziehen), sind im Grunde die Definition schlechter Ausgangsbedingungen. Im Film sagt der Dschinn, dass er sich nach den ersten tausend Jahren der Sehnsucht im Grunde seinem Schicksal ergeben und versucht hat, seinen Geist auszutricksen, indem er glaubt, er wolle für immer in der Flasche bleiben.

Sollten wir also daran zweifeln, dass der klügste Kopf in unserem bekannten Universum gegen einen so mächtigen Placeboeffekt immun ist? Sind Intelligenz und Placeboeffekt-Verletzlichkeit orthogonal? Dies ist zum jetzigen Zeitpunkt reine Spekulation.