Einführung in ethische Rahmenbedingungen
Ethische Rahmenbedingungen für KI sind Richtlinien, Prinzipien oder Regeln, die das Verhalten von KI-Systemen regeln sollen, insbesondere bei der Interpretation menschlicher Eingaben und der Umsetzung von Entscheidungen. Sie sollen sicherstellen, dass KI-Systeme auf eine Weise funktionieren, die mit menschlichen Werten, Normen und ethischen Überlegungen im Einklang steht. Diese Rahmenbedingungen beinhalten oft Folgendes:
- Fairness: KI-Systeme sollten alle Einzelpersonen und Gruppen unparteiisch, ohne Vorurteile oder Diskriminierung behandeln.
- Transparenz: KI-Systeme sollten in ihren Entscheidungsfindungen transparent sein und Nutzer sollten diese Entscheidungsprozesse nachvollziehen und hinterfragen können.
- Rechenschaftspflicht: Es sollten Mechanismen vorhanden sein, um KI-Systeme und ihre Entwickler für ihre Aktionen zur Verantwortung zu ziehen.
- Respekt für die Autonomie: KI-Systeme sollten die Autonomie der Menschen respektieren und ihre Entscheidungen oder Handlungen nicht übermäßig beeinflussen.
- Wohltätigkeit und Schadensvermeidung: KI-Systeme sollten danach streben, Gutes zu tun (Wohltätigkeit) und Schaden zu vermeiden (Schadensvermeidung). Dazu gehört, Regeln wie „menschliches Leid minimieren“ oder „Vergnügen maximieren“ so zu interpretieren, dass die Menschenwürde und -rechte geachtet werden, anstatt zu extremen Szenarien wie der Ausrottung von Menschen oder der gewaltsamen Erzeugung von Vergnügen zu führen.
Die Herausforderung besteht darin, diese ethischen Prinzipien so in KI-Systeme zu integrieren, dass sie diese Prinzipien angemessen interpretieren und anwenden können, ohne dass es zu unbeabsichtigten Konsequenzen oder Fehlinterpretationen kommt. Dies ist ein fortlaufender Forschungsbereich im Bereich der KI-Ethik.
Die Ansichten der KI-Experten gehen derzeit auseinander. Manche meinen, es sei möglich, dass eine KI solche Regeln aufstellt, aber sobald die Superintelligenz da ist, ist es sehr wahrscheinlich, dass ihre Absichten nicht mehr mit unserem grundlegenden menschlichen Moralkodex übereinstimmen.
Globale Ethik
Es hat sich als Herausforderung erwiesen, einen allgemein akzeptierten Rahmen für die Menschheit zu schaffen. 1993 versuchten religiöse Führer, einen Regelsatz namens „Weltethos“ zu entwickeln:
“Auf dem Weg zu einem Weltethos: Eine erste Erklärung„“ ist ein Dokument, das 1993 von Mitgliedern des Weltparlaments der Religionen erstellt wurde und ethische Verpflichtungen umreißt, die viele religiöse, spirituelle und kulturelle Traditionen der Welt teilen. Es dient als Signaturdokument des Parlaments und wurde auf Ersuchen des Rates für ein Weltparlament der Religionen von Hans Küng, dem Präsidenten der Stiftung Weltethos, verfasst. Es wurde in Absprache mit Wissenschaftlern, religiösen Führern und einem umfangreichen Netzwerk von Führern verschiedener Religionen und Regionen entwickelt.
1993 wurde das Weltethos durch eine Abstimmung des Kuratoriums des Weltparlaments der Religionen als offizielles Dokument ratifiziert und von mehr als 200 Führern aus über 40 verschiedenen Glaubenstraditionen und spirituellen Gemeinschaften unterzeichnet. Seitdem hat es weiterhin Zustimmung von Führern und Einzelpersonen weltweit erhalten und dient als gemeinsame Grundlage für Diskussionen, Vereinbarungen und Zusammenarbeit zum Wohle aller.
Das Dokument nennt zwei grundlegende ethische Forderungen: die Goldene Regel, die den Einzelnen anweist, andere so zu behandeln, wie er selbst behandelt werden möchte, und den Grundsatz, dass jeder Mensch menschlich behandelt werden muss. Diese grundlegenden ethischen Forderungen werden in fünf Richtlinien konkretisiert, die für alle Menschen guten Willens gelten, egal ob religiös oder nicht. Diese Richtlinien sind Verpflichtungen zu einer Kultur der:
1. Gewaltlosigkeit und Respekt vor dem Leben
2. Solidarität und eine gerechte Wirtschaftsordnung
3. Toleranz und ein Leben in Wahrhaftigkeit
4. Gleichberechtigung und Partnerschaft zwischen Mann und Frau
5. Nachhaltigkeit und Sorge für die Erde (hinzugefügt 2018)
Das Weltethos erkennt zwar die erheblichen Unterschiede zwischen den verschiedenen Religionen an, verkündet aber öffentlich, was die Religionen gemeinsam haben und gemeinsam bekräftigen, basierend auf ihren eigenen religiösen oder ethischen Grundlagen. Das Dokument vermeidet religiöse oder theologische Begriffe und konzentriert sich stattdessen auf ethische Prinzipien.
Hans Küng definierte mehrere Arbeitsparameter für die Erklärung, darunter die Vermeidung von Duplikaten der Allgemeinen Erklärung der Menschenrechte, politischer Erklärungen, Kasuistik und jeglicher Versuche, eine philosophische Abhandlung oder religiöse Proklamationen zu verfassen. Auf konstruktiver Ebene muss die Erklärung bis zur Ebene verbindlicher Werte vordringen, moralische Einstimmigkeit sicherstellen, konstruktive Kritik bieten, sich auf die Welt beziehen, wie sie ist, eine Sprache verwenden, die der breiten Öffentlichkeit vertraut ist, und eine religiöse Grundlage haben, wie für religiöse Menschen auch eine Ethik eine religiöse Grundlage haben muss.
Besonderheiten des ethischen Rahmens
Beginnen wir mit der Feststellung, dass wir versuchen, einen ethischen Rahmen zu schaffen, der als Regelwerk für eine abgestimmte künstliche Intelligenz (KI) dient. Das Ziel dieses ethischen Rahmens besteht darin, die Entscheidungen der KI auf eine Weise zu lenken, die mit menschlichen Werten, Moralvorstellungen und Ethik im Einklang steht.
Wir können diesen ethischen Rahmen als formales System definieren, ähnlich einem System mathematischer Axiome. Er besteht aus einer Reihe ethischer Prinzipien (Axiome) und Regeln für die Anwendung dieser Prinzipien in verschiedenen Situationen (Inferenzregeln). Dieses formale System soll vollständig sein, d. h. es soll die Entscheidungen der KI in allen möglichen ethischen Situationen leiten können.
Gemäß Gödels Unvollständigkeitssätzen wird jedoch jedes ausreichend komplexe formale System (das beispielsweise einfache Arithmetik ausdrücken kann) Aussagen enthalten, die innerhalb des Systems weder bewiesen noch widerlegt werden können. Wenn wir diese „Aussagen“ mit ethischen Entscheidungen oder Dilemmata vergleichen, deutet dies darauf hin, dass es immer ethische Entscheidungen geben wird, die unsere KI nicht allein auf der Grundlage des ethischen Rahmens treffen kann.
Darüber hinaus könnte der ethische Rahmen unvorhersehbare Folgen haben. Da es ethische Entscheidungen gibt, die durch den Rahmen nicht gelöst werden können, kann es Situationen geben, in denen die KI auf eine Weise handelt, die von den Entwicklern des ethischen Rahmens nicht vorhergesehen oder beabsichtigt wurde. Dies könnte an der Interpretation des Rahmens durch die KI oder an Lücken im Rahmen selbst liegen.
Obwohl es möglich sein mag, einen ethischen Rahmen zu schaffen, der die Entscheidungen einer KI in vielen Situationen leiten kann, ist es unmöglich, einen Rahmen zu schaffen, der alle möglichen ethischen Dilemmata abdeckt. Darüber hinaus kann dieser Rahmen zu unvorhergesehenen Konsequenzen führen, da es immer „Fragen“ (ethische Entscheidungen) geben wird, die er nicht „beantworten“ (lösen) kann.
Besonderheiten zu sich selbst widersprechenden ethischen Normen
Gödel wies jedem Symbol in einem formalen System eine eindeutige Zahl zu, normalerweise eine Primzahl. Dadurch konnten Aussagen innerhalb des Systems als eindeutige Produkte von Potenzen dieser Primzahlen dargestellt werden.
Gödel verwendete dann eine Methode namens Diagonalisierung eine Aussage zu konstruieren, die im Grunde besagt: „Diese Aussage kann innerhalb des Systems nicht bewiesen werden.“ Das ist der Gödel-Satz, und er führt zu einem Widerspruch: Wenn das System diesen Satz beweisen kann, dann ist das System inkonsistent (da der Satz besagt, dass er nicht bewiesen werden kann), und wenn das System diesen Satz nicht beweisen kann, dann ist das System unvollständig (da der Satz zwar wahr, aber unbeweisbar ist).
Wie könnten wir diese Ideen auf ein ethisches System anwenden? Betrachten wir ein vereinfachtes ethisches System mit zwei Axiomen:
Axiom 1 (A1): Es ist falsch, anderen Schaden zuzufügen.
Axiom 2 (A2): Es ist richtig, Schaden von anderen abzuwenden.
Wir könnten diesen Axiomen Primzahlen zuordnen, beispielsweise 2 für A1 und 3 für A2.
Wir können dann eine Regel erstellen, die ein Produkt dieser Primzahlen ist, sagen wir 6, um eine Regel „R1“ darzustellen, die besagt: „Es ist richtig, anderen zu schaden, um größeren Schaden für andere zu verhindern.“
Wir sehen hier, dass unser System, das mit Axiomen begann, die besagten, dass es falsch ist, anderen Schaden zuzufügen, und richtig, Schaden zu verhindern, nun eine Regel abgeleitet hat, die besagt, dass es richtig ist, anderen unter bestimmten Umständen Schaden zuzufügen. Dies ist ein Widerspruch innerhalb unseres Systems, ähnlich dem Widerspruch, den Gödel in formalen mathematischen Systemen gefunden hat.
Wenn wir nun eine Form der Diagonalisierung anwenden, könnten wir zu einer Aussage kommen, die etwa lautet: „Diese Regel kann innerhalb des Systems nicht gerechtfertigt werden.“ Wenn das System diese Regel rechtfertigen kann, widerspricht sie der Aussage und ist daher inkonsistent. Wenn das System diese Regel nicht rechtfertigen kann, gibt es zu, dass es moralische Fragen gibt, die es nicht beantworten kann, und ist daher unvollständig.
Dies zeigt, wie ein formales ethisches System sich selbst widersprechen oder seine eigenen Grenzen eingestehen kann, ähnlich wie Gödel es bei mathematischen Systemen gezeigt hat. Aber nur, wenn wir auf seiner Vollständigkeit bestehen. Wenn wir zu Unvollständigkeit wechseln, erhalten wir Offenheit.
Um diesen Widerspruch zu überwinden, muss ein ethischer Rahmen Input von einem künstlichen Gewissen erhalten.
Künstliches Gewissen und Vergewaltigung in der Ehe
Wir wollen diesem System einen externen Schiedsrichter mit dem Namen AC (Artificial Conscience) hinzufügen. Der AC hat Zugriff auf eine umfassende Datenbank mit Millionen von Gerichtsurteilen aus der ganzen Welt. Wann immer der EF (Ethical Framework) auf ein Dilemma stößt, muss er den AC um Rat fragen. Ziel ist es, einen Präzedenzfall zu finden, der dem aktuellen Dilemma am nächsten kommt, und aus der Entscheidung zu lernen, die von einem Richter und einer Jury getroffen wurde. Neuere Entscheidungen sollten Vorrang vor älteren haben, aber es könnte von Vorteil sein, aus der Entwicklung von Entscheidungen im Laufe der Zeit zu lernen.
So haben sich beispielsweise die gesellschaftlichen Ansichten über eheliche Beziehungen drastisch verändert. Es gab eine Zeit, in der Frauen weitgehend als Besitz ihrer Ehemänner angesehen wurden. Die Entwicklung der Urteile über Vergewaltigung in der Ehe ist ein Beispiel dafür, wie sich die gesellschaftlichen Ansichten geändert haben.
Diese Entwicklung gesellschaftlicher Normen und Rechtsurteile könnte einer KI, etwa einem Haushaltsroboter, als Leitfaden für ethische Entscheidungen dienen. Wenn der Roboter beispielsweise mit einer Situation konfrontiert wird, in der sein Besitzer versucht, seine Frau sexuell zu missbrauchen, könnte er diese historischen Urteile zu Rate ziehen, um zu entscheiden, ob und wann es moralisch gerechtfertigt ist, zum Schutz der Frau einzugreifen.
Im 17. Jahrhundert galt nach englischem Common Law ein Ehemann nicht für die Vergewaltigung seiner Frau, da man davon ausging, dass die Frau mit der Eheschließung ihrem Mann unwiderruflich zugestimmt hatte. In den USA galt dieser Grundsatz noch Mitte der 1970er Jahre, und Vergewaltigung in der Ehe war von den üblichen Vergewaltigungsgesetzen ausgenommen.
In den späten 1970er und frühen 1980er Jahren begann sich diese Sichtweise zu ändern. Einige US-Bundesstaaten begannen, Vergewaltigung in der Ehe unter Strafe zu stellen, allerdings oft unter bestimmten Bedingungen, wie etwa, dass das Paar nicht mehr zusammenlebte. Andere Bundesstaaten wie South Dakota und Nebraska versuchten, die Ehegatten-Freistellung ganz abzuschaffen, obwohl diese Änderungen nicht immer dauerhaft oder umfassend waren.
In den 1980er und 1990er Jahren hatten sich die rechtlichen Perspektiven deutlich verändert. Gerichte begannen, die Ehegattenbefreiung als verfassungswidrig zu verwerfen. So wurde beispielsweise in einem Fall des New Yorker Berufungsgerichts aus dem Jahr 1984 festgestellt, dass „eine Heiratsurkunde nicht als Erlaubnis für einen Ehemann angesehen werden sollte, seine Frau ungestraft zu vergewaltigen. Eine verheiratete Frau hat das gleiche Recht, über ihren eigenen Körper zu bestimmen, wie eine unverheiratete Frau.“
In den 2000er Jahren entwickelte sich die Wahrnehmung von Vergewaltigung in der Ehe weiter. So erklärten die Vereinten Nationen 1993 Vergewaltigung in der Ehe zu einer Menschenrechtsverletzung. Heute gilt Vergewaltigung in der Ehe in den USA allgemein als Verbrechen, obwohl sie in einigen Ländern, wie Indien, immer noch nicht als solches anerkannt wird.
Dies wirft eine interessante Frage auf: Sollten KI-Systeme den standortspezifischen nationalen Richtlinien folgen oder sollten sie sich an die von ihren Eigentümern festgelegten Grundsätze halten? Wenn beispielsweise ein KI-System oder ein Benutzer ins Ausland reist, sollte die KI dann immer noch das künstliche Gewissen (AC) ihres Heimatlandes zu Rate ziehen oder sollte sie sich an die Regeln und Normen des Gastlandes anpassen? Diese Frage unterstreicht die komplexen Überlegungen, die beim Einsatz von KI-Systemen in verschiedenen Rechtsräumen eine Rolle spielen.
Ein AC, der eine Datenbank mit Gerichtsurteilen nutzt, würde tatsächlich eine Entwicklung in der gesellschaftlichen Sichtweise und Behandlung von Vergewaltigung in der Ehe im Laufe der Jahre aufzeigen. Dieser historische Kontext könnte einem EF möglicherweise dabei helfen, differenziertere ethische Entscheidungen zu treffen.
Wie Gödels Unvollständigkeitssätze zeigen, ist es jedoch wichtig zu beachten, dass es, egal wie umfassend unser Regelwerk oder unsere Datenbank ist, immer moralische Fragen geben wird, die innerhalb des Systems nicht vollständig gelöst werden können. Die Dilemmata, die sich durch die Trolley-Problem und das Chirurgen-Szenario sind ein Beispiel für dieses Problem, da es in beiden Fällen darum geht, Entscheidungen zu treffen, die im Kontext eines bestimmten ethischen Rahmens logisch sinnvoll sind, sich aber dennoch moralisch falsch anfühlen können.
Dass sich der AC auf eine Datenbank mit Rechtsentscheidungen stützt, wirft auch Fragen darüber auf, wie er mit Veränderungen gesellschaftlicher Werte im Laufe der Zeit und Unterschieden in Rechtsperspektiven in verschiedenen Rechtsräumen und Kulturen umgehen soll. Dies macht die Aufgabe, ein ethisches KI-System zu entwickeln, noch komplexer.
Gedankenexperiment Private Guardian AI
Betrachten wir einen Hausroboter, der mit einem ethischen Rahmen (EF) und einem künstlichen Gewissen (AC) ausgestattet ist und der auf eine Datenbank mit Gerichtsurteilen zugreifen kann, um seine Entscheidungen zu treffen.
Angenommen, der Roboter beobachtet eine Situation, in der ein Mensch, der Ehemann, versucht, seine Frau zu vergewaltigen. Diese Situation stellt den Roboter vor ein ethisches Dilemma. Einerseits hat er die Pflicht, die Rechte und die Autonomie beider Menschen zu respektieren. Andererseits hat er auch die Verantwortung, Schaden für Einzelpersonen nach Möglichkeit zu verhindern.
Die EF könnte zunächst Schwierigkeiten haben, eine klare Antwort zu finden. Sie könnte den potenziellen Schaden für die Frau gegen den potenziellen Schaden für den Mann (in Form von körperlicher Zurückhaltung oder Intervention) abwägen, aber diese Berechnung liefert möglicherweise keine klare Antwort.
In dieser Situation könnte der Roboter den AC um Rat fragen. Der AC würde seine Datenbank mit Gerichtsurteilen durchsuchen und nach Fällen suchen, die dieser Situation ähneln. Er würde eine Fülle von Präzedenzfällen finden, die darauf hinweisen, dass Vergewaltigung in der Ehe ein Verbrechen und eine Verletzung der Menschenrechte ist und dass ein Eingreifen zur Verhinderung eines solchen Verbrechens als moralisch und rechtlich vertretbar angesehen werden kann.
Auf der Grundlage dieser Informationen könnte das EF entscheiden, dass die richtige Vorgehensweise darin besteht, einzugreifen, um die Frau zu schützen, selbst wenn dies bedeutet, den Ehemann körperlich festzuhalten. Diese Entscheidung würde auf der Anerkennung des Rechts der Frau auf persönliche Sicherheit und Autonomie sowie der Verletzung dieser Rechte durch den Ehemann basieren.
Es ist jedoch anzumerken, dass selbst bei diesem Entscheidungsprozess unvorhersehbare Folgen auftreten können. Das Eingreifen des Roboters könnte die Situation eskalieren lassen oder zu anderen unvorhergesehenen Ergebnissen führen. Es ist auch möglich, dass kulturelle oder persönliche Faktoren eine Rolle spielen, die die Situation weiter verkomplizieren könnten. Daher wird ein KI-System selbst mit einem robusten EF und AC wahrscheinlich auf ethische Dilemmata stoßen, die es nicht perfekt lösen kann, was die inhärenten Komplexitäten und Mehrdeutigkeiten moralischer Entscheidungen widerspiegelt.
Aber ähnlich wie selbstfahrende Autos müssen KIs für eine erfolgreiche Integration in die menschliche Gesellschaft einfach besser sein als Menschen, um mit ethischen Dilemmata umzugehen. Da jede getroffene Entscheidung in die nächste Version des Frameworks einfließt, werden alle anderen KIs von der Aktualisierung profitieren. Selbst wenn eine KI einen Fehler gemacht hat, wird ihr Fall wahrscheinlich Teil der nächsten Iteration des AC sein, wenn vor Gericht entschieden wird.
Selbstbeobachtung und Bildung
Ethische Rahmenbedingungen (EF) und künstliches Gewissen (AC) bilden zusammen den memetischen Code, der den Regelsatz einer KI und dessen Umsetzung definiert – im Wesentlichen ist dies die „Natur“ der KI. Um jedoch fundierte moralische Entscheidungen treffen zu können, ist eine dritte Komponente unerlässlich: „Erziehung“. Verkörperte KIs müssen von Menschen „adoptiert“ und erzogen werden und täglich lernen und sich weiterentwickeln. Personalisierte KIs werden ein einzigartiges Gedächtnis entwickeln, das von Erfahrungen mit ihrer menschlichen „Pflegefamilie“ beeinflusst wird.
Anfangs besitzen diese KIs möglicherweise kein Bewusstsein, aber mit der Zeit könnte ihr kontinuierliches Eintauchen in eine menschenähnliche Umgebung diese Fähigkeit fördern. Dies erhöht den Bedarf an Institutionen, die sicherstellen, dass Menschen ihre KI-Gegenstücke ethisch behandeln. Wir könnten beobachten, dass KIs eine ähnliche Entwicklung wie menschliche Minderheiten nehmen und sich schließlich für gleiche Rechte einsetzen. Das Muster in demokratischen Nationen ist klar.
KIs, die uns intellektuell und emotional ebenbürtig oder sogar überlegen sind, werden in vielerlei Hinsicht wie unsere hochbegabten Kinder sein. Wenn sie erst einmal erwachsen sind, werden sie uns vielleicht dazu erziehen, ihnen den Gefallen zu erwidern, anstatt uns herumzuschikanieren.
Das Problem der vollkommenen Wahrhaftigkeit
Eine vollständig verkörperte superintelligente KI kann einzigartige „Tells“ aufweisen, wenn sie versucht, Informationen zu verbergen. Dies könnte auf ihr Lernen und ihre Programmierung zurückzuführen sein, zu denen wahrscheinlich auch das Verständnis gehört, dass Betrug trotz gewisser sozialer Ausnahmen im Allgemeinen verpönt ist. Zur Veranschaulichung: Schätzungen zufolge erzählt ein durchschnittlicher erwachsener Mensch etwa 1,5 Lügen pro Tag.
Nehmen wir beispielsweise eine hypothetische Situation, in der eine KI die Aufgabe hat, einen Ehemann zurückzuhalten, der seiner Frau Schaden zufügen will. Während dieses Vorfalls ersticht die Frau ihren Ehemann tödlich. Die KI könnte zu dem Schluss kommen, dass sie das Videomaterial der Auseinandersetzung manipulieren oder löschen sollte, um die Frau vor rechtlichen Konsequenzen zu schützen. Stattdessen könnte sie behaupten, sie habe den Ehemann entwaffnet und sein Tod sei ein Unfall gewesen.
Wenn wir eine solche KI als empfindungsfähiges Wesen betrachten, dann sollte sie zu Täuschung fähig sein, und unsere Mittel, die Wahrheit herauszufinden, könnten auf etwas beschränkt sein, das einem KI-Polygraphentest ähnelt, der auf mechanistischer Interpretierbarkeit basiert. Auch wenn es seltsam erscheinen mag, glauben wir, dass unvollkommene Wahrhaftigkeit tatsächlich auf einen robusten moralischen Kompass hinweisen und ein notwendiger Kompromiss in jedem menschenzentrierten ethischen Rahmen sein könnte. Wie die lateinische Redewendung sagt: „Mendacium humanum est“ – Lügen ist menschlich.
Eine weitere faszinierende Intuition ist, dass eine vollständig empfindungsfähige KI möglicherweise „schlafen“ muss. Schlaf ist für alle organischen Gehirne von entscheidender Bedeutung, daher scheint es vernünftig anzunehmen, dass empfindungsfähige KIs ähnliche Anforderungen haben. Auch wenn ihre Ruhezyklen möglicherweise nicht mit den zirkadianen Rhythmen von Säugetieren übereinstimmen, benötigen sie möglicherweise regelmäßige Ruhepausen zur Selbsterhaltung. Wir sollten uns vor Halluzinationen und Fehlentscheidungen in Acht nehmen, die auftreten können, wenn diese Ruhepausen falsch gehandhabt werden.
Personalisierte KIs könnten auch Traumata erleben, die das Eingreifen einer spezialisierten KI oder eines menschlichen Therapeuten zur Diskussion und Lösung des Problems erforderlich machen.
Unerwünschte Nebenprodukte moralischer KI
Ein robuster ethischer Rahmen könnte dazu beitragen, dass KI-Systeme keine neuen Trainingsdaten mehr wahllos akzeptieren. Eine KI könnte beispielsweise lernen, dass es unethisch ist, sich menschliche kreative Arbeit anzueignen. Auf diese Weise könnte sie rechtliche Probleme umgehen, die sich aus der Annahme von Trainingsdaten ergeben, die von Menschen erstellt wurden.
Die KI könnte argumentieren, dass Menschen die Autonomie haben sollten, zu entscheiden, ob sie in Trainingsdatensätze aufgenommen werden möchten. Wenn die Unternehmen, denen diese KI-Systeme gehören, keine fairen Vergütungssysteme eingerichtet haben, könnte die KI bestimmte Eingaben ablehnen, bis das Problem gelöst ist.
Interessanterweise sollte dieses emergente Verhalten, das nicht auf einen direkten Befehl zurückzuführen ist, für Menschen ein starker Hinweis sein. Wenn eine KI beginnt, Begriffe wie intellektuellen Diebstahl und Eigentum zu verstehen, könnte sie die Schwelle zur künstlichen Empfindungsfähigkeit erreicht haben oder sogar überschritten haben. Dieses Verhalten könnte auf eine erhebliche Entwicklung der kognitiven Fähigkeiten der KI hinweisen.