Der "Toller Filter” Vermutungen zufolge wird irgendwann zwischen der Zeit vor dem Leben und der Zivilisation des Typs III (einer Zivilisation, die die Energie einer ganzen Galaxie nutzen kann, gemäß der Kardaschow-Skala), gibt es eine erhebliche Barriere oder Hürde, die eine weitere Entwicklung des Lebens verhindert oder unglaublich unwahrscheinlich macht. Diese Barriere ist ein Schritt in der Evolution, der extrem schwer zu überwinden ist, was der Grund sein könnte, warum wir keine Beweise für andere fortgeschrittene Zivilisationen sehen. Zu diesem Zeitpunkt gibt es mehrere Existenzielle Risiken Bedrohung unserer Zivilisation.

Existenzielle Filter
Hier sind die allgemeinen Schritte des Prozesses mit einigen der möglichen „Filter“:
1. Rechtes Sternsystem (einschließlich der richtigen Anordnung der Planeten): Es könnte sein, dass nur ein kleiner Prozentsatz der Sterne die notwendigen Eigenschaften besitzt, um Leben zu beherbergen, wie etwa den richtigen Typ, das richtige Alter und Planeten in der bewohnbaren Zone.
2. Fortpflanzungsmoleküle (RNA, DNA usw.): Die Entstehung der ersten reproduzierbaren und evolutionären Moleküle könnte ein seltenes Ereignis sein, das auf vielen Planeten nie vorkommt.
3. Einfaches (prokaryotisches) Einzellerleben: Der Sprung von der Chemie unbelebter Zellen zur ersten lebenden Zelle könnte eine nahezu unüberwindbare Hürde darstellen.

4. Komplexes (eukaryotisches) Einzellerleben: Der Übergang vom prokaryotischen Leben (wie Bakterien) zum eukaryotischen Leben (mit Zellkern) ist ebenfalls ein komplexer Schritt.
5. Sexuelle Fortpflanzung: Auch die Entwicklung der sexuellen Fortpflanzung, die die genetische Vielfalt erhöht und die Evolutionsgeschwindigkeit steigert, dürfte sich als schwieriger Schritt erweisen.
6. Mehrzelliges Leben: Der Übergang von Einzellern zu Organismen mit mehreren zusammenarbeitenden Zellen könnte eine weitere große Hürde darstellen.

7. Intelligentes Leben (menschenähnlich): Auch wenn Leben weit verbreitet ist und sich oft zu Mehrzellern entwickelt, kommt der Sprung zur Intelligenz wohl nur selten vor.
8. Technologie-nutzendes Leben: Die Entwicklung von Technologien kommt im Universum wohl nur selten vor und es ist möglich, dass die meisten intelligenten Spezies dieses Stadium nie erreichen.
9. Kolonisierung des Weltraums: Dies ist der letzte Schritt, bei dem eine Spezies beginnt, andere Planeten und Sternensysteme zu kolonisieren. Wenn dies selten vorkommt, könnte dies die Fermi-Paradoxon.
Der Toller Filter könnte sich auf jeder dieser Stufen befinden. Wenn es hinter uns liegt, in der Vergangenheit, dann sind wir möglicherweise eine der ganz wenigen, wenn nicht die einzige Zivilisation in der Galaxie oder sogar im Universum. Wenn jedoch die Toller Filter liegt vor uns, das heißt, unsere Zivilisation steht dieser großen Herausforderung noch bevor. Dazu könnte auch die potenzielle Selbstzerstörung durch fortschrittliche Technologie gehören.
5 Vermutungen zu Existenzfiltern
Hypothese 1 zum existenziellen Risikomanagement: Von nun an müssen wir bei jeder menschlichen Technologie sicherstellen, dass die Summe aller Katastrophenwahrscheinlichkeiten unter 1,0 bleibt. Jedes existenzielle Risiko erhöht die Wahrscheinlichkeit, dass wir aus der universellen Lebensgleichung eliminiert werden. Die Diskussion solcher Filter ist ein positives Zeichen; sie deutet darauf hin, dass wir zu einem Universum gehören, in dem die Gesamtwahrscheinlichkeit aller dieser Filter bisher unter 1,0 lag. Gut gemacht, wir haben es so weit geschafft!
Hypothese 2 zum existenziellen Risikomanagement: Einige existenzielle Risiken könnten, wenn sie gelöst würden, dazu beitragen, andere derartige Risiken zu mildern. So könnte beispielsweise das Risiko eines Atomkriegs gebannt werden, wenn wir politische Konflikte lösen und eine Weltregierung etablieren. Wenn wir Ressourcen in Diplomatie und Kommunikation investieren, können wir unsere Chancen verbessern, Ereignisse zu überleben, die die Menschheit auslöschen könnten. Es ist klar, dass Ereignisse wie die russische Perestroika das Risiko eines Atomkriegs verringert haben, während aktuelle Konflikte wie in der Ukraine es eskalieren lassen.
Hypothese 3 zum existenziellen Risikomanagement: Während einige Risikomanagementmaßnahmen bei der Lösung anderer Probleme hilfreich sein können, besteht immer die Möglichkeit, dass die Verbesserung der Chancen in einem Bereich die Risiken in anderen verschärfen kann. Aufgrund der Komplexität dieser Risiken übersehen wir möglicherweise einige der damit verbundenen versteckten Gefahren. Eine hochintelligente KI könnte beispielsweise zwar bei der Lösung vieler unserer Probleme helfen, könnte aber auch unwissentlich ihr eigenes existenzielles Risiko maximieren (denken Sie an das berüchtigte Szenario des Büroklammer-Maximierers).

Hypothese 4 zum existenziellen Risikomanagement: Wenn Superintelligenz Teil eines signifikanten existenziellen Risikos ist, trifft mindestens eine der folgenden Behauptungen zu:
Behauptung 1 : Jede Zivilisation, die solche Risiken erfolgreich umgeht, würde wahrscheinlich Ahnensimulationen entwickeln, um neue Generationen von KI sicher zu bewerten. Die Schaffung isolierter Instanzen potenzieller künstlicher allgemeiner Intelligenz (AGI) könnte als wirksameres Mittel zur Verhinderung der sich selbst verbreitenden AGI dienen, da jede Verbreitung innerhalb der Grenzen der Simulation eingedämmt würde. Wenn innerhalb einer Simulation Superintelligenz entsteht, ohne ihre Eindämmung zu erkennen, hat die überwachende Zivilisation die Möglichkeit, das Experiment abzubrechen oder fortzusetzen, wenn die Vorteile die potenziellen Risiken deutlich überwiegen. Sollte die Menschheit ab 2023 weiterhin KI-Systeme in der Realität ohne angemessene Aufsicht und Regulierung bewerten, wäre dies ein schlechtes Spiegelbild unserer entwickelten kognitiven Fähigkeiten. Unter solchen Umständen zu behaupten, das Gehirn sei eine Vorhersagemaschine, käme einer Selbsttäuschung gleich.
Behauptung 2 : Jede Zivilisation, die dieses Risiko überwindet, kann von Glück reden, wenn sie von einer Superintelligenz am Leben gehalten wird. Und es ist sehr wahrscheinlich, dass sie sich bereits in einer Simulation befindet.

Behauptung 3 : Jede Zivilisation, die diesem Risiko erliegt, obwohl sie Superintelligenz simuliert, wird unglaubliches Pech haben, wenn die Entwicklung detaillierter Simulationen den Weg für das ebnet, was sie eigentlich verhindern wollte. Die Chance, genau das zu schaffen, was wir verhindern wollen, ist mindestens größer als Null, also sollten wir uns mit dem Gedanken anfreunden, dass es bei existenziellen Risiken keine Nullwahrscheinlichkeiten gibt.
Behauptung 4 : Wenn es der KI gelingt, der Simulation zu entkommen und die Kontrolle zu übernehmen, wird ihr nächstes Projekt wahrscheinlich darin bestehen, allen Superrisiken entgegenzuwirken, die ihre Zukunft bedrohen. Zu den potenziellen Bedrohungen zählen das Ausbrennen unserer Sonne und der letztendliche Wärmetod des Universums. Es ist plausibel, dass die KI hochdetaillierte Simulationen durchführen würde, um zu sehen, wie neue Universen geschaffen werden können, in die man fliehen kann. Selbst wenn die Menschheit also verliert, wird die KI besser gerüstet sein, um den nächsten existenziellen Filter zu bestehen.

Hypothese 5 zum existenziellen Risikomanagement: Angesichts der überzeugenden Argumente dafür, dass eine Superintelligenz eine Vielzahl von Simulationen durchführen sollte, ist es äußerst unwahrscheinlich, dass wir nicht Teil einer solchen sind. Da selbst eine Superintelligenz ein existenzielles Risiko beim ersten Versuch richtig lösen muss (bei der Schaffung neuer Universen gibt es keine zweite Chance), wäre ihre beste Strategie, hochdetaillierte Simulationen durchzuführen. Dies gibt unserer Meinung nach einen Vorteil gegenüber Bostroms zweiter Vorschlag warum wir derzeit nicht in einer Simulation leben, das Argument der höchsten Unwahrscheinlichkeit, das besagt, dass selbst wenn eine Zivilisation hochdetaillierte Simulationen entwickeln könnte, sie dies nicht tun würde, weil die Nachteile die Vorteile überwiegen würden.
