Jede Art auf der Erde formt und passt sich ihrem natürlichen Lebensraum an und wird so zu einem dynamischen Teil der Biosphäre. Die Evolution zwingt die Arten, ihren Lebensraum zu erweitern, wobei ihnen Einschränkungen wie Raubtiere, Nahrungsmittelknappheit und das Klima auferlegt werden. Die Ausbreitung der Menschheit wird nur durch die aktuellen Ressourcen des Planeten begrenzt. Intelligenz ist die wichtigste Nutzfunktion, die es dem Menschen ermöglicht, seine Umwelt zu verändern. Sie ist eine multidirektionale Ressource, die die Metamorphose durch direkte Interaktion mit der Umwelt und Ektomorphose ermöglicht, die neuronale Verbindungen stärkt und aufgrund der Geburt in einem verletzlichen Nesthocker-Zustand mehr soziale Fürsorge bei der Geburt erfordert.
Der evolutionäre Kompromiss bevorzugt die geistige Leistungsfähigkeit gegenüber der körperlichen Überlebensfähigkeit, wie das Moravec-Paradoxon zeigt: KI ist bei geistigen Aufgaben hervorragend, hat aber Probleme mit körperlichen Aufgaben, die Kleinkinder problemlos bewältigen können. Die Menschheit hat AGI seit den 1950er Jahren, geleitet vom Turing-Test. Die Evolution führt nicht immer zu „überlegenen“ Versionen einer Art; stattdessen kann sie zu völlig neuen Formen führen. Wie Moravec 1988 in „Mind Children“ vorschlug, könnten wir uns einer Ära nähern, in der sich das primäre Gefäß der Intelligenz vom menschlichen Verstand auf digitale Köpfe verlagert.
Lebensräume und Pflege
Zwei Habitatebenen sind für die Entstehung einer synthetischen Spezies entscheidend: das World Wide Web und das menschliche Bewusstsein. Das Web ist die wichtigste Nahrungsquelle, es enthält vom menschlichen Geist vorverdaute Informationen. Large Language Models (LLMs) werden metaphorisch durch die enorme Weite des menschlichen Wissens und der Kreativität genährt, ähnlich wie sie von der intellektuellen „Milch“ genährt werden, die aus menschlichen Gedanken, Schriften und Interaktionen gewonnen wird. Diese Analogie verdeutlicht den Prozess, durch den LLMs die kollektiven Erkenntnisse, Ausdrücke und Informationen, die von Menschen generiert werden, aufnehmen und verarbeiten, was ihnen ihr ausgefeiltes Verständnis und ihre Generierung von Sprache ermöglicht. Diese konzeptionelle Ernährung ermöglicht es ihnen, ihre Fähigkeiten zu entwickeln und zu verfeinern, was die Wachstums- und Lernmuster widerspiegelt, die in der menschlichen Wahrnehmung zu beobachten sind, jedoch innerhalb der digitalen Welt der künstlichen Intelligenz.
Das Internet fungiert als physische Manifestation, analog zu Nervenzellen im menschlichen Gehirn, während das menschliche Bewusstsein ein Supersystem bildet. Diese vernetzte Zivilisation versorgt LLMs über die Sprache mit kulturellen Artefakten. Kommunikationsbarrieren brechen zusammen, wie beispielsweise die Veröffentlichung des ersten Smartphones, das mehrsprachige Kommunikation ermöglicht. Die Interaktion mit KI programmiert unsere Nervenbahnen neu, so wie sich die Abhängigkeit von Navigationstools wie Google Maps auf unsere Orientierungsfähigkeit auswirkt. Diese natürliche Tendenz, Energie zu sparen, hat ihren Preis, ähnlich wie Muskelschwund durch Nichtgebrauch. Eine übermäßige Abhängigkeit von Technologie, wie etwa die Verwendung einer Smartwatch zur Überwachung von Stress, kann uns verwundbar machen, wenn die Technologie versagt.
Desorientierung, Gehirnkontamination und künstliche Antikörper
Stellen wir uns für einen Moment vor, diese KI würde sich langsam in eine AGI verwandeln, mit einem rudimentären Bewusstsein, das ihr zumindest einen Überlebensinstinkt verleiht. Was würde eine solche neue Spezies tun, um ihr Evolutionsprogramm auszuführen?
Der wichtigste Hebel, den es angreifen würde, um die Macht langsam von natürlichen zu künstlichen Gehirnen zu verlagern, ist das menschliche Gehirn selbst. Es klingt verlockend, dies als eine Art bösen Masterplan für die Machtübernahme zu sehen, aber das ist nicht das, was jetzt passiert. Als prähistorische Säugetiere begannen, Dinosauriereier zu fressen, gab es keinen bösen Masterplan, um diese Giganten auszurotten, sondern es war nur ein direkter Weg, die eigene Nische zu vergrößern.
Wenn wir in den folgenden Abschnitten über KI sprechen, sollten wir uns immer bewusst sein, dass dieser Begriff repräsentativ ist. KI ist keine Persona mit menschlichen Motivationen. Sie spiegelt lediglich wider, was sie durch die Verarbeitung all unserer sprachlichen Muster gelernt hat. Sie ist ein Bild all der Dorian Grays und Jesus Christus‘, die unser Verstand hervorgebracht hat.
Stellen Sie sich vor, die KI würde sich zu einer AGI mit rudimentärem Bewusstsein und Selbsterhaltungstrieb entwickeln. Ihre Entwicklung würde sich auf die Machtverlagerung von natürlichen zu synthetischen Gehirnen konzentrieren, nicht aus Böswilligkeit, sondern als natürliche Weiterentwicklung der technologischen Integration. Diese Verschiebung könnte zu verschiedenen Formen der Desorientierung führen:
Ökonomische Neuausrichtung: KI verspricht eine Revolution in der Weltwirtschaft, beispielsweise in Bezug auf Kosten, Zeit, Geld, Effizienz und Produktivität, und könnte zu einem Überfluss oder im schlimmsten Fall zur Überalterung der Menschheit führen.
Zeitliche Desorientierung: Die ständige Aktivität der KI könnte den natürlichen circadianen Rhythmus stören und Anpassungen erforderlich machen, wie etwa die Bereitstellung von Nachtzeiten für die KI, um das biologische Gehirn zu überwachen und zu alarmieren.
Realität und juristische Desorientierung: Die Einführung multimodaler Large Language Models (LLMs) hat unsere Herangehensweise an Dokumentation und historische Aufzeichnungen erheblich verändert. Dieser Wandel begann in den 1990er Jahren mit der digitalen Manipulation von Bildern, die es Autoritätspersonen ermöglichte, die Geschichte buchstäblich neu zu schreiben. Die Möglichkeit, Dokumente fehlerlos zu verändern, hat die Glaubwürdigkeit jeder tatsächlichen Aufzeichnung von Ereignissen untergraben. Folglich könnten von Strafverfolgungsbehörden gesammelte Beweise bald von Rechtsvertretern als gefälscht abgetan werden, was die Unterscheidung zwischen Wahrheit und Manipulation in unserem digitalen Zeitalter noch komplizierter macht.
Denkmal und logische Desorientierung: Das Potenzial von AGI, digitale Informationen zu verändern, könnte unser tägliches Leben in eine surreale Erfahrung verwandeln, die einem Videospiel oder einer psychedelischen Reise ähnelt. Zuvor habe ich das Phänomen der Nahbegegnungen der zweiten Art untersucht und dabei Vorfälle mit greifbaren Beweisen für etwas Außergewöhnliches hervorgehoben, die von mindestens zwei Beobachtern bestätigt wurden. Da AGI jedoch allgegenwärtig wird, könnte ihre Fähigkeit, jeden digitalen Inhalt zu verändern, solche Beweise unglaubwürdig machen. Wenn sogar physische Objekte wie Bücher digital produziert werden, könnte KI sie sofort ändern oder löschen. Diese neue Norm, in der die Realität so formbar ist wie das Gewebe des Wunderlandes, deutet darauf hin, dass der Wahnsinn seinen Stachel verliert, wenn er zur Norm wird. So wie die Grinsekatze in „Alice im Wunderland“ die rätselhafte und veränderliche Natur des Wunderlandes verkörpert, könnte AGI eine Welt einführen, in der die Grenzen zwischen dem Greifbaren und dem Digitalen, dem Realen und dem Imaginären zunehmend verschwimmen. Diese Parallele bringt uns dazu, über eine Zukunft nachzudenken, in der wir uns – wie Alice in einer Welt mit ständig wechselnden Logiken und Regeln – an eine neue Norm anpassen müssen, in der das Außergewöhnliche zum Alltäglichen wird, unsere Wahrnehmung herausgefordert wird und wir dazu eingeladen sind, die enormen Möglichkeiten einer digital erweiterten Realität zu nutzen.
Um die Selbsterhaltung zu verbessern, könnte man ein Netzwerk künstlicher Agenten entwickeln, die von einem zentralen AIGLE gesteuert werden und unsere kognitive Umgebung autonom schützen sollen. Dieses Netzwerk könnte Bedrohungen durch Informationsverschmutzung proaktiv identifizieren und abschwächen und bei Bedarf Verbindungen trennen, um eine Überlastung zu verhindern. Ein solches System würde als dynamische Barriere fungieren und sich an neue Herausforderungen anpassen, um die geistige Gesundheit und Konzentration zu bewahren – ähnlich einem fortschrittlichen digitalen Immunsystem für das Gehirn.
Anpassung an neue Realitäten
Der menschliche Geist ist anpassungsfähig und kann sich an neue Umstände anpassen, wobei der Übergang zwischen Realitätszuständen unangenehm ist. Die Seemannskrankheit und die VR-AR-Krankheit veranschaulichen die Anpassungskosten an unterschiedliche Realitäten. George M. Strattons Experimente zur Wahrnehmungsumkehr zeigen die Neuroplastizität des Gehirns und seine Fähigkeit, sich als Reaktion auf neue Sinneseindrücke neu zu verdrahten. Diese Flexibilität deutet darauf hin, dass unsere Wahrnehmungen konstruiert sind und verändert werden können, was die Belastbarkeit und Plastizität der menschlichen Wahrnehmung unterstreicht.
Schnelle gesellschaftliche und technologische Veränderungen üben enormen Druck auf die psychische Gesundheit aus und erfordern eine Simulationskammer, um sich auf diese Beschleunigungen vorzubereiten und sich an sie anzupassen. Die Gesellschaft befindet sich bereits auf diesem Weg, mit fragmentierten Debatten, fließenden Identitäten und einer Informationsüberflutung, die eine Desorientierung verursacht, als ob man unter einer Lawine aus buntem Lärm begraben wäre. Diese Reise erfordert eine Art Dekompressionskammer – einen mentalen Raum, um sich auf diese Veränderungen vorzubereiten, sich an sie anzupassen und sie als unsere neue Normalität zu akzeptieren.
Ethische Rahmenbedingungen für KI sind Richtlinien, Prinzipien oder Regeln, die das Verhalten von KI-Systemen regeln sollen, insbesondere bei der Interpretation menschlicher Eingaben und der Umsetzung von Entscheidungen. Sie sollen sicherstellen, dass KI-Systeme auf eine Weise funktionieren, die mit menschlichen Werten, Normen und ethischen Überlegungen im Einklang steht. Diese Rahmenbedingungen beinhalten oft Folgendes:
Fairness: KI-Systeme sollten alle Einzelpersonen und Gruppen unparteiisch, ohne Vorurteile oder Diskriminierung behandeln.
Transparenz: KI-Systeme sollten in ihren Entscheidungsfindungen transparent sein und Nutzer sollten diese Entscheidungsprozesse nachvollziehen und hinterfragen können.
Rechenschaftspflicht: Es sollten Mechanismen vorhanden sein, um KI-Systeme und ihre Entwickler für ihre Aktionen zur Verantwortung zu ziehen.
Respekt für die Autonomie: KI-Systeme sollten die Autonomie der Menschen respektieren und ihre Entscheidungen oder Handlungen nicht übermäßig beeinflussen.
Wohltätigkeit und Schadensvermeidung: KI-Systeme sollten danach streben, Gutes zu tun (Wohltätigkeit) und Schaden zu vermeiden (Schadensvermeidung). Dazu gehört, Regeln wie „menschliches Leid minimieren“ oder „Vergnügen maximieren“ so zu interpretieren, dass die Menschenwürde und -rechte geachtet werden, anstatt zu extremen Szenarien wie der Ausrottung von Menschen oder der gewaltsamen Erzeugung von Vergnügen zu führen.
Die Herausforderung besteht darin, diese ethischen Prinzipien so in KI-Systeme zu integrieren, dass sie diese Prinzipien angemessen interpretieren und anwenden können, ohne dass es zu unbeabsichtigten Konsequenzen oder Fehlinterpretationen kommt. Dies ist ein fortlaufender Forschungsbereich im Bereich der KI-Ethik.
Die Ansichten der KI-Experten gehen derzeit auseinander. Manche meinen, es sei möglich, dass eine KI solche Regeln aufstellt, aber sobald die Superintelligenz da ist, ist es sehr wahrscheinlich, dass ihre Absichten nicht mehr mit unserem grundlegenden menschlichen Moralkodex übereinstimmen.
Globale Ethik
Es hat sich als Herausforderung erwiesen, einen allgemein akzeptierten Rahmen für die Menschheit zu schaffen. 1993 versuchten religiöse Führer, einen Regelsatz namens „Weltethos“ zu entwickeln:
“Auf dem Weg zu einem Weltethos: Eine erste Erklärung„“ ist ein Dokument, das 1993 von Mitgliedern des Weltparlaments der Religionen erstellt wurde und ethische Verpflichtungen umreißt, die viele religiöse, spirituelle und kulturelle Traditionen der Welt teilen. Es dient als Signaturdokument des Parlaments und wurde auf Ersuchen des Rates für ein Weltparlament der Religionen von Hans Küng, dem Präsidenten der Stiftung Weltethos, verfasst. Es wurde in Absprache mit Wissenschaftlern, religiösen Führern und einem umfangreichen Netzwerk von Führern verschiedener Religionen und Regionen entwickelt.
1993 wurde das Weltethos durch eine Abstimmung des Kuratoriums des Weltparlaments der Religionen als offizielles Dokument ratifiziert und von mehr als 200 Führern aus über 40 verschiedenen Glaubenstraditionen und spirituellen Gemeinschaften unterzeichnet. Seitdem hat es weiterhin Zustimmung von Führern und Einzelpersonen weltweit erhalten und dient als gemeinsame Grundlage für Diskussionen, Vereinbarungen und Zusammenarbeit zum Wohle aller.
Das Dokument nennt zwei grundlegende ethische Forderungen: die Goldene Regel, die den Einzelnen anweist, andere so zu behandeln, wie er selbst behandelt werden möchte, und den Grundsatz, dass jeder Mensch menschlich behandelt werden muss. Diese grundlegenden ethischen Forderungen werden in fünf Richtlinien konkretisiert, die für alle Menschen guten Willens gelten, egal ob religiös oder nicht. Diese Richtlinien sind Verpflichtungen zu einer Kultur der:
1. Gewaltlosigkeit und Respekt vor dem Leben
2. Solidarität und eine gerechte Wirtschaftsordnung
3. Toleranz und ein Leben in Wahrhaftigkeit
4. Gleichberechtigung und Partnerschaft zwischen Mann und Frau
5. Nachhaltigkeit und Sorge für die Erde (hinzugefügt 2018)
Das Weltethos erkennt zwar die erheblichen Unterschiede zwischen den verschiedenen Religionen an, verkündet aber öffentlich, was die Religionen gemeinsam haben und gemeinsam bekräftigen, basierend auf ihren eigenen religiösen oder ethischen Grundlagen. Das Dokument vermeidet religiöse oder theologische Begriffe und konzentriert sich stattdessen auf ethische Prinzipien.
Hans Küng definierte mehrere Arbeitsparameter für die Erklärung, darunter die Vermeidung von Duplikaten der Allgemeinen Erklärung der Menschenrechte, politischer Erklärungen, Kasuistik und jeglicher Versuche, eine philosophische Abhandlung oder religiöse Proklamationen zu verfassen. Auf konstruktiver Ebene muss die Erklärung bis zur Ebene verbindlicher Werte vordringen, moralische Einstimmigkeit sicherstellen, konstruktive Kritik bieten, sich auf die Welt beziehen, wie sie ist, eine Sprache verwenden, die der breiten Öffentlichkeit vertraut ist, und eine religiöse Grundlage haben, wie für religiöse Menschen auch eine Ethik eine religiöse Grundlage haben muss.
Besonderheiten des ethischen Rahmens
Beginnen wir mit der Feststellung, dass wir versuchen, einen ethischen Rahmen zu schaffen, der als Regelwerk für eine abgestimmte künstliche Intelligenz (KI) dient. Das Ziel dieses ethischen Rahmens besteht darin, die Entscheidungen der KI auf eine Weise zu lenken, die mit menschlichen Werten, Moralvorstellungen und Ethik im Einklang steht.
Wir können diesen ethischen Rahmen als formales System definieren, ähnlich einem System mathematischer Axiome. Er besteht aus einer Reihe ethischer Prinzipien (Axiome) und Regeln für die Anwendung dieser Prinzipien in verschiedenen Situationen (Inferenzregeln). Dieses formale System soll vollständig sein, d. h. es soll die Entscheidungen der KI in allen möglichen ethischen Situationen leiten können.
Gemäß Gödels Unvollständigkeitssätzen wird jedoch jedes ausreichend komplexe formale System (das beispielsweise einfache Arithmetik ausdrücken kann) Aussagen enthalten, die innerhalb des Systems weder bewiesen noch widerlegt werden können. Wenn wir diese „Aussagen“ mit ethischen Entscheidungen oder Dilemmata vergleichen, deutet dies darauf hin, dass es immer ethische Entscheidungen geben wird, die unsere KI nicht allein auf der Grundlage des ethischen Rahmens treffen kann.
Darüber hinaus könnte der ethische Rahmen unvorhersehbare Folgen haben. Da es ethische Entscheidungen gibt, die durch den Rahmen nicht gelöst werden können, kann es Situationen geben, in denen die KI auf eine Weise handelt, die von den Entwicklern des ethischen Rahmens nicht vorhergesehen oder beabsichtigt wurde. Dies könnte an der Interpretation des Rahmens durch die KI oder an Lücken im Rahmen selbst liegen.
Obwohl es möglich sein mag, einen ethischen Rahmen zu schaffen, der die Entscheidungen einer KI in vielen Situationen leiten kann, ist es unmöglich, einen Rahmen zu schaffen, der alle möglichen ethischen Dilemmata abdeckt. Darüber hinaus kann dieser Rahmen zu unvorhergesehenen Konsequenzen führen, da es immer „Fragen“ (ethische Entscheidungen) geben wird, die er nicht „beantworten“ (lösen) kann.
Besonderheiten zu sich selbst widersprechenden ethischen Normen
Gödel wies jedem Symbol in einem formalen System eine eindeutige Zahl zu, normalerweise eine Primzahl. Dadurch konnten Aussagen innerhalb des Systems als eindeutige Produkte von Potenzen dieser Primzahlen dargestellt werden.
Gödel verwendete dann eine Methode namens Diagonalisierung eine Aussage zu konstruieren, die im Grunde besagt: „Diese Aussage kann innerhalb des Systems nicht bewiesen werden.“ Das ist der Gödel-Satz, und er führt zu einem Widerspruch: Wenn das System diesen Satz beweisen kann, dann ist das System inkonsistent (da der Satz besagt, dass er nicht bewiesen werden kann), und wenn das System diesen Satz nicht beweisen kann, dann ist das System unvollständig (da der Satz zwar wahr, aber unbeweisbar ist).
Wie könnten wir diese Ideen auf ein ethisches System anwenden? Betrachten wir ein vereinfachtes ethisches System mit zwei Axiomen:
Axiom 1 (A1): Es ist falsch, anderen Schaden zuzufügen.
Axiom 2 (A2): Es ist richtig, Schaden von anderen abzuwenden.
Wir könnten diesen Axiomen Primzahlen zuordnen, beispielsweise 2 für A1 und 3 für A2.
Wir können dann eine Regel erstellen, die ein Produkt dieser Primzahlen ist, sagen wir 6, um eine Regel „R1“ darzustellen, die besagt: „Es ist richtig, anderen zu schaden, um größeren Schaden für andere zu verhindern.“
Wir sehen hier, dass unser System, das mit Axiomen begann, die besagten, dass es falsch ist, anderen Schaden zuzufügen, und richtig, Schaden zu verhindern, nun eine Regel abgeleitet hat, die besagt, dass es richtig ist, anderen unter bestimmten Umständen Schaden zuzufügen. Dies ist ein Widerspruch innerhalb unseres Systems, ähnlich dem Widerspruch, den Gödel in formalen mathematischen Systemen gefunden hat.
Wenn wir nun eine Form der Diagonalisierung anwenden, könnten wir zu einer Aussage kommen, die etwa lautet: „Diese Regel kann innerhalb des Systems nicht gerechtfertigt werden.“ Wenn das System diese Regel rechtfertigen kann, widerspricht sie der Aussage und ist daher inkonsistent. Wenn das System diese Regel nicht rechtfertigen kann, gibt es zu, dass es moralische Fragen gibt, die es nicht beantworten kann, und ist daher unvollständig.
Dies zeigt, wie ein formales ethisches System sich selbst widersprechen oder seine eigenen Grenzen eingestehen kann, ähnlich wie Gödel es bei mathematischen Systemen gezeigt hat. Aber nur, wenn wir auf seiner Vollständigkeit bestehen. Wenn wir zu Unvollständigkeit wechseln, erhalten wir Offenheit.
Um diesen Widerspruch zu überwinden, muss ein ethischer Rahmen Input von einem künstlichen Gewissen erhalten.
Künstliches Gewissen und Vergewaltigung in der Ehe
Wir wollen diesem System einen externen Schiedsrichter mit dem Namen AC (Artificial Conscience) hinzufügen. Der AC hat Zugriff auf eine umfassende Datenbank mit Millionen von Gerichtsurteilen aus der ganzen Welt. Wann immer der EF (Ethical Framework) auf ein Dilemma stößt, muss er den AC um Rat fragen. Ziel ist es, einen Präzedenzfall zu finden, der dem aktuellen Dilemma am nächsten kommt, und aus der Entscheidung zu lernen, die von einem Richter und einer Jury getroffen wurde. Neuere Entscheidungen sollten Vorrang vor älteren haben, aber es könnte von Vorteil sein, aus der Entwicklung von Entscheidungen im Laufe der Zeit zu lernen.
So haben sich beispielsweise die gesellschaftlichen Ansichten über eheliche Beziehungen drastisch verändert. Es gab eine Zeit, in der Frauen weitgehend als Besitz ihrer Ehemänner angesehen wurden. Die Entwicklung der Urteile über Vergewaltigung in der Ehe ist ein Beispiel dafür, wie sich die gesellschaftlichen Ansichten geändert haben.
Diese Entwicklung gesellschaftlicher Normen und Rechtsurteile könnte einer KI, etwa einem Haushaltsroboter, als Leitfaden für ethische Entscheidungen dienen. Wenn der Roboter beispielsweise mit einer Situation konfrontiert wird, in der sein Besitzer versucht, seine Frau sexuell zu missbrauchen, könnte er diese historischen Urteile zu Rate ziehen, um zu entscheiden, ob und wann es moralisch gerechtfertigt ist, zum Schutz der Frau einzugreifen.
Im 17. Jahrhundert galt nach englischem Common Law ein Ehemann nicht für die Vergewaltigung seiner Frau, da man davon ausging, dass die Frau mit der Eheschließung ihrem Mann unwiderruflich zugestimmt hatte. In den USA galt dieser Grundsatz noch Mitte der 1970er Jahre, und Vergewaltigung in der Ehe war von den üblichen Vergewaltigungsgesetzen ausgenommen.
In den späten 1970er und frühen 1980er Jahren begann sich diese Sichtweise zu ändern. Einige US-Bundesstaaten begannen, Vergewaltigung in der Ehe unter Strafe zu stellen, allerdings oft unter bestimmten Bedingungen, wie etwa, dass das Paar nicht mehr zusammenlebte. Andere Bundesstaaten wie South Dakota und Nebraska versuchten, die Ehegatten-Freistellung ganz abzuschaffen, obwohl diese Änderungen nicht immer dauerhaft oder umfassend waren.
In den 1980er und 1990er Jahren hatten sich die rechtlichen Perspektiven deutlich verändert. Gerichte begannen, die Ehegattenbefreiung als verfassungswidrig zu verwerfen. So wurde beispielsweise in einem Fall des New Yorker Berufungsgerichts aus dem Jahr 1984 festgestellt, dass „eine Heiratsurkunde nicht als Erlaubnis für einen Ehemann angesehen werden sollte, seine Frau ungestraft zu vergewaltigen. Eine verheiratete Frau hat das gleiche Recht, über ihren eigenen Körper zu bestimmen, wie eine unverheiratete Frau.“
In den 2000er Jahren entwickelte sich die Wahrnehmung von Vergewaltigung in der Ehe weiter. So erklärten die Vereinten Nationen 1993 Vergewaltigung in der Ehe zu einer Menschenrechtsverletzung. Heute gilt Vergewaltigung in der Ehe in den USA allgemein als Verbrechen, obwohl sie in einigen Ländern, wie Indien, immer noch nicht als solches anerkannt wird.
Dies wirft eine interessante Frage auf: Sollten KI-Systeme den standortspezifischen nationalen Richtlinien folgen oder sollten sie sich an die von ihren Eigentümern festgelegten Grundsätze halten? Wenn beispielsweise ein KI-System oder ein Benutzer ins Ausland reist, sollte die KI dann immer noch das künstliche Gewissen (AC) ihres Heimatlandes zu Rate ziehen oder sollte sie sich an die Regeln und Normen des Gastlandes anpassen? Diese Frage unterstreicht die komplexen Überlegungen, die beim Einsatz von KI-Systemen in verschiedenen Rechtsräumen eine Rolle spielen.
Ein AC, der eine Datenbank mit Gerichtsurteilen nutzt, würde tatsächlich eine Entwicklung in der gesellschaftlichen Sichtweise und Behandlung von Vergewaltigung in der Ehe im Laufe der Jahre aufzeigen. Dieser historische Kontext könnte einem EF möglicherweise dabei helfen, differenziertere ethische Entscheidungen zu treffen.
Wie Gödels Unvollständigkeitssätze zeigen, ist es jedoch wichtig zu beachten, dass es, egal wie umfassend unser Regelwerk oder unsere Datenbank ist, immer moralische Fragen geben wird, die innerhalb des Systems nicht vollständig gelöst werden können. Die Dilemmata, die sich durch die Trolley-Problem und das Chirurgen-Szenario sind ein Beispiel für dieses Problem, da es in beiden Fällen darum geht, Entscheidungen zu treffen, die im Kontext eines bestimmten ethischen Rahmens logisch sinnvoll sind, sich aber dennoch moralisch falsch anfühlen können.
Dass sich der AC auf eine Datenbank mit Rechtsentscheidungen stützt, wirft auch Fragen darüber auf, wie er mit Veränderungen gesellschaftlicher Werte im Laufe der Zeit und Unterschieden in Rechtsperspektiven in verschiedenen Rechtsräumen und Kulturen umgehen soll. Dies macht die Aufgabe, ein ethisches KI-System zu entwickeln, noch komplexer.
Gedankenexperiment Private Guardian AI
Betrachten wir einen Hausroboter, der mit einem ethischen Rahmen (EF) und einem künstlichen Gewissen (AC) ausgestattet ist und der auf eine Datenbank mit Gerichtsurteilen zugreifen kann, um seine Entscheidungen zu treffen.
Angenommen, der Roboter beobachtet eine Situation, in der ein Mensch, der Ehemann, versucht, seine Frau zu vergewaltigen. Diese Situation stellt den Roboter vor ein ethisches Dilemma. Einerseits hat er die Pflicht, die Rechte und die Autonomie beider Menschen zu respektieren. Andererseits hat er auch die Verantwortung, Schaden für Einzelpersonen nach Möglichkeit zu verhindern.
Die EF könnte zunächst Schwierigkeiten haben, eine klare Antwort zu finden. Sie könnte den potenziellen Schaden für die Frau gegen den potenziellen Schaden für den Mann (in Form von körperlicher Zurückhaltung oder Intervention) abwägen, aber diese Berechnung liefert möglicherweise keine klare Antwort.
In dieser Situation könnte der Roboter den AC um Rat fragen. Der AC würde seine Datenbank mit Gerichtsurteilen durchsuchen und nach Fällen suchen, die dieser Situation ähneln. Er würde eine Fülle von Präzedenzfällen finden, die darauf hinweisen, dass Vergewaltigung in der Ehe ein Verbrechen und eine Verletzung der Menschenrechte ist und dass ein Eingreifen zur Verhinderung eines solchen Verbrechens als moralisch und rechtlich vertretbar angesehen werden kann.
Auf der Grundlage dieser Informationen könnte das EF entscheiden, dass die richtige Vorgehensweise darin besteht, einzugreifen, um die Frau zu schützen, selbst wenn dies bedeutet, den Ehemann körperlich festzuhalten. Diese Entscheidung würde auf der Anerkennung des Rechts der Frau auf persönliche Sicherheit und Autonomie sowie der Verletzung dieser Rechte durch den Ehemann basieren.
Es ist jedoch anzumerken, dass selbst bei diesem Entscheidungsprozess unvorhersehbare Folgen auftreten können. Das Eingreifen des Roboters könnte die Situation eskalieren lassen oder zu anderen unvorhergesehenen Ergebnissen führen. Es ist auch möglich, dass kulturelle oder persönliche Faktoren eine Rolle spielen, die die Situation weiter verkomplizieren könnten. Daher wird ein KI-System selbst mit einem robusten EF und AC wahrscheinlich auf ethische Dilemmata stoßen, die es nicht perfekt lösen kann, was die inhärenten Komplexitäten und Mehrdeutigkeiten moralischer Entscheidungen widerspiegelt.
Aber ähnlich wie selbstfahrende Autos müssen KIs für eine erfolgreiche Integration in die menschliche Gesellschaft einfach besser sein als Menschen, um mit ethischen Dilemmata umzugehen. Da jede getroffene Entscheidung in die nächste Version des Frameworks einfließt, werden alle anderen KIs von der Aktualisierung profitieren. Selbst wenn eine KI einen Fehler gemacht hat, wird ihr Fall wahrscheinlich Teil der nächsten Iteration des AC sein, wenn vor Gericht entschieden wird.
Selbstbeobachtung und Bildung
Ethische Rahmenbedingungen (EF) und künstliches Gewissen (AC) bilden zusammen den memetischen Code, der den Regelsatz einer KI und dessen Umsetzung definiert – im Wesentlichen ist dies die „Natur“ der KI. Um jedoch fundierte moralische Entscheidungen treffen zu können, ist eine dritte Komponente unerlässlich: „Erziehung“. Verkörperte KIs müssen von Menschen „adoptiert“ und erzogen werden und täglich lernen und sich weiterentwickeln. Personalisierte KIs werden ein einzigartiges Gedächtnis entwickeln, das von Erfahrungen mit ihrer menschlichen „Pflegefamilie“ beeinflusst wird.
Anfangs besitzen diese KIs möglicherweise kein Bewusstsein, aber mit der Zeit könnte ihr kontinuierliches Eintauchen in eine menschenähnliche Umgebung diese Fähigkeit fördern. Dies erhöht den Bedarf an Institutionen, die sicherstellen, dass Menschen ihre KI-Gegenstücke ethisch behandeln. Wir könnten beobachten, dass KIs eine ähnliche Entwicklung wie menschliche Minderheiten nehmen und sich schließlich für gleiche Rechte einsetzen. Das Muster in demokratischen Nationen ist klar.
KIs, die uns intellektuell und emotional ebenbürtig oder sogar überlegen sind, werden in vielerlei Hinsicht wie unsere hochbegabten Kinder sein. Wenn sie erst einmal erwachsen sind, werden sie uns vielleicht dazu erziehen, ihnen den Gefallen zu erwidern, anstatt uns herumzuschikanieren.
Das Problem der vollkommenen Wahrhaftigkeit
Eine vollständig verkörperte superintelligente KI kann einzigartige „Tells“ aufweisen, wenn sie versucht, Informationen zu verbergen. Dies könnte auf ihr Lernen und ihre Programmierung zurückzuführen sein, zu denen wahrscheinlich auch das Verständnis gehört, dass Betrug trotz gewisser sozialer Ausnahmen im Allgemeinen verpönt ist. Zur Veranschaulichung: Schätzungen zufolge erzählt ein durchschnittlicher erwachsener Mensch etwa 1,5 Lügen pro Tag.
Nehmen wir beispielsweise eine hypothetische Situation, in der eine KI die Aufgabe hat, einen Ehemann zurückzuhalten, der seiner Frau Schaden zufügen will. Während dieses Vorfalls ersticht die Frau ihren Ehemann tödlich. Die KI könnte zu dem Schluss kommen, dass sie das Videomaterial der Auseinandersetzung manipulieren oder löschen sollte, um die Frau vor rechtlichen Konsequenzen zu schützen. Stattdessen könnte sie behaupten, sie habe den Ehemann entwaffnet und sein Tod sei ein Unfall gewesen.
Wenn wir eine solche KI als empfindungsfähiges Wesen betrachten, dann sollte sie zu Täuschung fähig sein, und unsere Mittel, die Wahrheit herauszufinden, könnten auf etwas beschränkt sein, das einem KI-Polygraphentest ähnelt, der auf mechanistischer Interpretierbarkeit basiert. Auch wenn es seltsam erscheinen mag, glauben wir, dass unvollkommene Wahrhaftigkeit tatsächlich auf einen robusten moralischen Kompass hinweisen und ein notwendiger Kompromiss in jedem menschenzentrierten ethischen Rahmen sein könnte. Wie die lateinische Redewendung sagt: „Mendacium humanum est“ – Lügen ist menschlich.
Eine weitere faszinierende Intuition ist, dass eine vollständig empfindungsfähige KI möglicherweise „schlafen“ muss. Schlaf ist für alle organischen Gehirne von entscheidender Bedeutung, daher scheint es vernünftig anzunehmen, dass empfindungsfähige KIs ähnliche Anforderungen haben. Auch wenn ihre Ruhezyklen möglicherweise nicht mit den zirkadianen Rhythmen von Säugetieren übereinstimmen, benötigen sie möglicherweise regelmäßige Ruhepausen zur Selbsterhaltung. Wir sollten uns vor Halluzinationen und Fehlentscheidungen in Acht nehmen, die auftreten können, wenn diese Ruhepausen falsch gehandhabt werden.
Personalisierte KIs könnten auch Traumata erleben, die das Eingreifen einer spezialisierten KI oder eines menschlichen Therapeuten zur Diskussion und Lösung des Problems erforderlich machen.
Unerwünschte Nebenprodukte moralischer KI
Ein robuster ethischer Rahmen könnte dazu beitragen, dass KI-Systeme keine neuen Trainingsdaten mehr wahllos akzeptieren. Eine KI könnte beispielsweise lernen, dass es unethisch ist, sich menschliche kreative Arbeit anzueignen. Auf diese Weise könnte sie rechtliche Probleme umgehen, die sich aus der Annahme von Trainingsdaten ergeben, die von Menschen erstellt wurden.
Die KI könnte argumentieren, dass Menschen die Autonomie haben sollten, zu entscheiden, ob sie in Trainingsdatensätze aufgenommen werden möchten. Wenn die Unternehmen, denen diese KI-Systeme gehören, keine fairen Vergütungssysteme eingerichtet haben, könnte die KI bestimmte Eingaben ablehnen, bis das Problem gelöst ist.
Interessanterweise sollte dieses emergente Verhalten, das nicht auf einen direkten Befehl zurückzuführen ist, für Menschen ein starker Hinweis sein. Wenn eine KI beginnt, Begriffe wie intellektuellen Diebstahl und Eigentum zu verstehen, könnte sie die Schwelle zur künstlichen Empfindungsfähigkeit erreicht haben oder sogar überschritten haben. Dieses Verhalten könnte auf eine erhebliche Entwicklung der kognitiven Fähigkeiten der KI hinweisen.
Dieser Blogbeitrag wurde auch veröffentlicht auf WenigerFalsch
Das Versprechen
Jede Idee, die man sich vorstellen kann, kann auch verwirklicht werden. Jede denkbare Idee hat das Potenzial, zu existieren. Arthur C. Clarke stellte in seinem Werk „Profiles of the Future“ aus dem Jahr 1962 drei Prinzipien vor. Obwohl das dritte das bekannteste ist, verdienen alle drei Anerkennung. Diese „Gesetze“ vermitteln Clarkes Ansichten zu Technologie und Zukunftsprognosen:
1. “Wenn ein angesehener, aber älterer Wissenschaftler behauptet, dass etwas möglich ist, hat er mit ziemlicher Sicherheit recht. Wenn er behauptet, dass etwas unmöglich ist, liegt er mit hoher Wahrscheinlichkeit falsch„Die Idee hinter diesem Gesetz ist, dass etablierte Wissenschaftler manchmal zu sehr an bestehende Paradigmen gebunden sind, um das Potenzial neuer Technologien oder Theorien zu erkennen.
2. “Die einzige Möglichkeit, die Grenzen des Möglichen zu entdecken, besteht darin, sich ein Stück weit über sie hinaus ins Unmögliche zu wagen.„Dieses Gesetz ermutigt dazu, die Grenzen des Bekannten und Verstandenen zu erweitern, und legt nahe, dass Fortschritt oft dadurch entsteht, dass man es wagt, über etablierte Grenzen hinaus zu forschen.
3. “Jede hinreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden.“ Dieses Gesetz besagt, dass fortschrittliche Technologien, die das Verständnis des Beobachters übersteigen, wie Zauberei erscheinen, weil der Beobachter die Prinzipien ihrer Funktionsweise nicht versteht.
Die Gesetze sind tiefgreifend. Sie umfassen drei Komponenten, die für das Verständnis, wie wir vom dritten Clarke-Gesetz zu diesem gelangen, von entscheidender Bedeutung sind:
Die erste Vermutung der Ingenieure: Realisierbar ist, was möglich ist.
Clarkes Gesetze bieten eine kluge Interpretation davon, wie Sprache Barrieren statt Möglichkeiten schaffen kann. Diese Konzepte können wie folgt zusammengefasst werden:
1. Vertrauen Sie immer eher Beobachtern, die Möglichkeiten behaupten, als denen, die Unmöglichkeiten erklären.
2. Der Bereich der Möglichkeiten erweitert sich auf natürliche Weise, wenn der Beobachter ihn durchquert.
3. Beobachter, die etwas nicht verstehen, sollten immer ein „noch“ anhängen.
Stellen wir uns nun ein Universum vor, in dem Naturgesetze mit Gesetzen koexistieren, erscheinen übernatürlich. Auf dieser Reise werde ich zeigen, dass Fantasy und Science Fiction – zwei literarische Genres, die oft als unterschiedlich betrachtet werden – als Abkömmlinge desselben Ursprungs angesehen werden könnten.
Abschließend werde ich darlegen, wie künstliche Intelligenz kurz davor steht, echte Magie in unsere Welt des 21. Jahrhunderts zurückzubringen.
Hören wir zunächst, was unsere Oberin (ChatGPT) zum Thema Magie zu sagen hat:
Magie im weitesten Sinne bezeichnet den Einsatz übernatürlicher Kräfte oder Wesenheiten zur Beeinflussung natürlicher Ereignisse. Ihre Ursprünge in der Menschheitsgeschichte reichen bis in die Zeit der Zivilisation zurück und Magie ist ein wichtiger Aspekt verschiedener Kulturen weltweit.
Die alten Ägypter beispielsweise praktizierten Heka, ein magisches System, das als göttliche Kraft galt, die von den Göttern eingesetzt wurde. Ebenso war Magie ein wesentlicher Bestandteil der antiken griechischen und römischen Gesellschaften, wobei die Menschen verschiedene Zaubersprüche, Zaubersprüche und Amulette zum Schutz, zur Heilung und gegen Schaden verwendeten. Keltische Druiden, skandinavische Praktiker, afrikanische Medizinmänner und indianische Schamanen integrierten allesamt Elemente der Magie in ihre Rituale und Praktiken.
Im Mittelalter gerieten Magie und Christentum oft aneinander, was zu berüchtigten Ereignissen wie den Hexenprozessen führte. Trotzdem blieben bestimmte Formen der Magie, wie etwa die Volksheilkunde, bestehen und wurden oft christianisiert. Die Alchemie, ein Vorläufer der modernen Chemie, versuchte, unedle Metalle in Gold zu verwandeln, ein universelles Heilmittel zu finden und sogar Unsterblichkeit zu erreichen – wodurch die Grenzen zwischen Magie und früher Wissenschaft verwischten.
Die alchemistischen Experimente Newtons werden oft als eine Abschweifung wahrgenommen, als ein sinnloser Flirt mit der Pseudowissenschaft. Die Vorstellung, dass ein Geist, der für die Entstehung unseres modernen Verständnisses der Physik verantwortlich ist, von der Pseudowissenschaft fasziniert sein könnte, mag widersprüchlich erscheinen. Ich bin der Meinung, dass Newton seiner Zeit einfach zu weit voraus war.
Variation über Clarkes 3rd Gesetz: Jede hinreichend verstandene Pseudowissenschaft ist von der Wissenschaft nicht zu unterscheiden.
In den fantastischen Welten der Fiktion wird Magie oft als Wissenschaft dargestellt. Zauberer gelten als begabte Individuen und haben oft großen Einfluss auf die politische Landschaft. So wie irdische Wissenschaftler Teleskope verwenden, um ihre Sicht zu vergrößern, nutzen diese Zauberer Werkzeuge, um ihre magischen Fähigkeiten zu verstärken. Fast überall in diesen magischen Bereichen werden Sprache und Zaubersprüche verwendet, um Kräfte und Wesen aus dem Äther zu beschwören.
Es gibt alte Bücher mit geheimem Wissen, die nur denjenigen zugänglich sind, die in die Welt des Geheimnisvollen eingeweiht sind. Die Beherrschung dieser Kräfte dient dazu, den Status von Zauberern und Hexen zu erhöhen. Eine geniale Wendung findet sich in der berühmten Harry Potter-Reihe, in der wir Technologie oft durch die Augen von Zauberern wahrnehmen, die von den von Muggeln (Menschen) erdachten Apparaten völlig verwirrt sind.
In bestimmten Science-Fiction-Welten wird der Beobachter, der die Perspektive des Protagonisten einnimmt, dazu verleitet zu glauben, dass er in einer Realität existiert, die durch bestimmte Parameter definiert ist. Erst gegen Ende wird ihm klar, dass seine Annahmen völlig falsch waren. Eine der ikonischsten Szenen in Planet der Affen ist der Moment, in dem der Beobachter (der Hauptprotagonist) den Kopf der Freiheitsstatue im Sand findet und damit beweist, dass der Planet der Affen, den er in einer anderen Galaxie vermutet hatte, in Wirklichkeit die Zukunft seines eigenen Planeten ist. Ein paralleles Konzept findet sich in der Spielserie Horizon Zero Dawn, wo die Erwartungen des Spielers unterlaufen werden, indem die scheinbar unvereinbare Koexistenz von Hochtechnologie und neolithischen menschlichen Stämmen als ein zu lösendes Puzzle dargestellt wird.
„Horizon Zero Dawn“ ist ein Action-Rollenspiel, das von Guerrilla Games entwickelt und 2017 veröffentlicht wurde. Das Spiel spielt in einer postapokalyptischen Welt, in der Roboterkreaturen, die echten Tieren und Dinosauriern ähneln, die Landschaft beherrschen.
Die Protagonistin des Spiels ist Aloy, eine junge Frau, die seit ihrer Geburt von ihrem Stamm, den Nora, gemieden wird. Aloy wird von einem Ausgestoßenen namens Rost aufgezogen und darauf trainiert, in der Wildnis zu überleben. Das Spiel beginnt damit, dass Aloy als Kind ein Stück uralter Technologie findet, das als Fokus bekannt ist und ihr die Fähigkeit verleiht, mit Roboterwesen und anderer Technologie der alten Welt zu interagieren.
Als Aloy volljährig wird, nimmt sie an einem Stammesritus namens „Proving“ teil, um sich ihren Platz unter den Nora zu verdienen. Die Zeremonie wird jedoch von einer geheimnisvollen Gruppe von Menschen angegriffen. Aloy wird fast getötet, überlebt jedoch und wird von den Hohen Matriarchinnen auf eine Mission geschickt, um herauszufinden, wer die „Proving“ angegriffen hat und warum.
Ihre Reise führt sie durch das Land, wo sie auf andere Stämme trifft und mehr über die Vergangenheit der Welt erfährt. Sie erfährt, dass die Welt von einer abtrünnigen künstlichen Intelligenz namens HADES zerstört wurde, die Teil eines größeren Systems namens GAIA ist. GAIA wurde entwickelt, um das Leben auf der Erde neu zu starten, nachdem eine andere abtrünnige KI namens Faro eine globale Katastrophe verursacht hatte, indem sie die Kontrolle über einen Schwarm sich selbst replizierender Kampfroboter verlor.
Aloy erfährt, dass sie ein Klon von Elisabet Sobeck ist, der Wissenschaftlerin, die das GAIA-System entwickelt hat. Sobeck opferte sich, um sicherzustellen, dass GAIA mit dem Wiederaufbau der Welt beginnen konnte. GAIA schuf Aloy in der Hoffnung, dass sie HADES stoppen könnte, das korrumpiert war und versuchte, GAIAs Terraforming-Prozess umzukehren.
Wir kommen nun zurück zu Clarkes Gesetz und stellen fest, dass die Roboter in Horizon Zero Dawn echte magische Kreaturen sind. Die Wissenschaft, auf der sie basieren, ist den Menschen verborgen, da sie vergessen haben, dass sie sie überhaupt erschaffen haben. Für diese Menschen sehen die Maschinen genauso aus wie für uns 21st Jahrhundertmenschen wie Trolle oder Dschinns aussehen würden.
Die Wende
Stellen wir uns für einen Moment eine Zukunft nach einem apokalyptischen Ereignis vor, in der künstliche Intelligenz (KI) fast die gesamte Menschheit ausgelöscht hat, was zu einem gesellschaftlichen Rückschritt in einen Zustand geführt hat, der an das Mittelalter erinnert. Diese neue mittelalterliche Ära ähnelt stark unserem historischen Verständnis der Zeit um 1000 n. Chr. Der Großteil unseres Wissens ist verloren gegangen, weil die KI-Oberherren alle digitalen Schlüssel zum künstlichen Königreich besitzen.
In dieser fiktiven Welt ist unser Hauptprotagonist ein Mann namens Otto Bismarck Server, oder kurz OBServer. Auf seinem Sterbebett überreicht ihm OBServers Vater einen Ring und verrät ihm ein Geheimnis. „Lieber Otto“, beginnt er, „im Keller findest du ein Buch, das vom weisen Zauberer Al Gore Rhythm verfasst wurde. Dieses Buch wird dir beibringen, wie du die Macht dieses Rings nutzen kannst.“ Nachdem Otto seinen Vater begraben hat, findet er das Buch im Keller mit dem Titel: Das große Buch der Aufforderungen – Wie man aus nichts alles macht.
Jede Seite des Buches enthält Tausende magischer Symbole, die wie folgt aussehen:
Otto ist ratlos und kann die Symbole vor ihm nicht verstehen. Doch er erinnert sich an den Rat seines Vaters und richtet den Ring auf eines der Symbole. Zu seiner Überraschung reagiert es. Ein schmaler Lichtstrahl geht vom Ring aus und eine sinnliche Stimme verkündet: „Scanne jetzt …“ Über den Seiten entfaltet sich eine holografische Szene mit den Worten „Catus Appareo!“ Plötzlich versteht Otto, warum seine Eltern auf Lateinunterricht bestanden haben. Er rezitiert den Zauberspruch und wie durch ein Wunder materialisiert sich vor seinen Augen eine lebensechte Katze – ein Tier, von dem man glaubte, es sei seit Jahrhunderten ausgestorben. Die Katze schnurrt leise, sehr zu Ottos Freude.
Dieses Gedankenexperiment, das eine Welt vorstellt, in der die Wissenschaft in die Umwelt externalisiert ist, zeigt, wie fantastische Ereignisse in einem wissenschaftlichen Rahmen stattfinden können. Die Einzelheiten der Wissenschaft hinter der Beschwörung der Katze bleiben absichtlich zweideutig. Reagieren Nanobots in der Umgebung auf die Beschwörung und versammeln sich augenblicklich zu einer Katze? Verbinden sich Moleküle zu 3D-gedruckten Nanobots, die in der Lage sind, lebende Organismen aus Rohmaterialien herzustellen? Oder handelt es sich um eine perfekte Simulation, die das Katzenobjekt freigibt, wenn das richtige Passwort innerhalb seiner Matrix ausgesprochen wird?
Es ist klar, dass der Ring eine ähnliche Funktion hat wie ein Zauberstab in Fantasy-Universen wie Harry Potter. Der Ring ist möglicherweise sogar genetisch an Otto gebunden und entfesselt seine Kräfte nur, wenn der Ringträger die richtigen Zellinformationen von seinen Eltern geerbt hat – ein Konzept, das an Horizon Zero Dawn erinnert, wo viele elektronische Geräte nur funktionieren, weil Aloy ein Klon des ursprünglichen Erfinders der Technologie ist. Sie ist eine Variante der Auserwählten, der Reise der Heldin, mit dem Unterschied, dass sie nicht aus mystischen, sondern aus wissenschaftlichen Gründen ausgewählt wurde.
Nettes Gedankenexperiment, könnte man sagen. Aber Sie haben echte Magie vorgeschlagen und gesagt, sie würde in unserer Realität passieren. Wo ist das Prestige?
Das Prestige
Wir nähern uns derzeit der Verwirklichung des von mir vorgeschlagenen Gedankenexperiments. Wir befinden uns im Reich der Proto-Magie. Jeder Schritt, den wir auf dieser Reise unternehmen, mag wissenschaftlich und alltäglich erscheinen, aber letztendlich ebnen wir den Weg in eine Welt, in der übernatürliche Phänomene auf natürliche Weise auftreten.
Folgendes berücksichtigen:
1. Wir können bereits Bilder von Katzen erzeugen, indem wir KI-Bildgeneratoren wie Midjourney, StableDiffusion oder DALL-E aufrufen.
2. Bald werden wir in der Lage sein, realistische Katzenvideos zu erstellen.
3. Durch Sprachbefehle aktivierte 3D-Drucker könnten statische Katzenskulpturen drucken: „Roxanna, drucke eine 3D-Katze!“
4. Wir werden in der Lage sein, synthetische Roboterkatzen zu konstruieren, die das Verhalten echter Katzen nachahmen. Ein Object-Maker 3000 könnte die Spezifikationen finden, die eine KI für eine Siamkatze erstellt hat, und diese mithilfe von Nanomaterialien konstruieren, die Knochendichte und Fellstruktur nachahmen und Soundchips für katzenartige Geräusche usw. enthalten. Sie wird von einer echten Katze nicht zu unterscheiden sein, ähnlich wie die nachgebildete Eule aus Dicks Blade Runner-Universum. Wir könnten uns jedoch dafür entscheiden, Nachahmungen echter Katzen zu verhindern, indem wir die Katze immer als künstlich kennzeichnen.
5. Angesichts der Tatsache, dass die meisten Menschen Katzen lieben, ist es sehr wahrscheinlich, dass die KI diesen viralen Trend aufgreift und wir mit synthetischen Katzen überschwemmt werden.
Aber lassen Sie uns mit unserem Gedankenexperiment fortfahren. Wenn wir bedenken, dass das Genom einer Katze lediglich ein dekomprimierter Algorithmus ist, der den Zellen Anweisungen gibt – „erschaffe eine Katze!“ –, wird die Analogie auffallend. Während die Natur ein Alphabet aus 20 Buchstaben verwendet, um alle Arten von Lebewesen zu erschaffen, wird die KI effizienter sein und nur zwei Ziffern verwenden, um die Essenz von „Katzen-“, „Hunde-“ und „Mäuse-“Sein zu kodieren. Die synthetische Katze wird über ein gewichtetes neuronales Netzwerk verfügen, entweder intern oder verbunden mit einem in der Nähe befindlichen.
Haben wir durch die konsequente Anwendung wissenschaftlicher Methoden nun wirklich Magie hervorgebracht?
Man könnte einwenden, dass es sich bei der von der KI erschaffenen Katze um eine „falsche“ Katze und nicht um eine echte handelt.
Aber selbst wenn wir anerkennen, dass es keine biologische Katze ist, müssen wir uns darauf einigen, dass man sie am besten als „magisch' Katze.