{"id":235,"date":"2023-07-30T11:29:23","date_gmt":"2023-07-30T11:29:23","guid":{"rendered":"https:\/\/www.aiui.cloud\/?p=235"},"modified":"2023-07-30T11:29:25","modified_gmt":"2023-07-30T11:29:25","slug":"great-filters-and-existential-risks","status":"publish","type":"post","link":"https:\/\/www.aiui.cloud\/de\/2023\/07\/30\/great-filters-and-existential-risks\/","title":{"rendered":"Gro\u00dfe Filter und existenzielle Risiken"},"content":{"rendered":"<span class=\"span-reading-time rt-reading-time\" style=\"display: block;\"><span class=\"rt-label rt-prefix\">Lesezeit: <\/span> <span class=\"rt-time\"> 5<\/span> <span class=\"rt-label rt-postfix\">Protokoll<\/span><\/span>\n<p><\/p>\n\n\n\n<h1 class=\"wp-block-heading\"><img loading=\"lazy\" decoding=\"async\" width=\"321\" height=\"481\" class=\"wp-image-237\" src=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/word-image-235-1.jpeg\" srcset=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/word-image-235-1.jpeg 321w, https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/word-image-235-1-200x300.jpeg 200w\" sizes=\"auto, (max-width: 321px) 100vw, 321px\" \/><\/h1>\n\n\n\n<p>Der &quot;<a href=\"https:\/\/en.wikipedia.org\/wiki\/Great_Filter\" target=\"_blank\" rel=\"noopener\">Toller Filter\u201d<\/a> Vermutungen zufolge wird irgendwann zwischen der Zeit vor dem Leben und der Zivilisation des Typs III (einer Zivilisation, die die Energie einer ganzen Galaxie nutzen kann, gem\u00e4\u00df der <a href=\"https:\/\/en.wikipedia.org\/wiki\/Kardashev_scale\" target=\"_blank\" rel=\"noopener\">Kardaschow-Skala<\/a>), gibt es eine erhebliche Barriere oder H\u00fcrde, die eine weitere Entwicklung des Lebens verhindert oder unglaublich unwahrscheinlich macht. Diese Barriere ist ein Schritt in der Evolution, der extrem schwer zu \u00fcberwinden ist, was der Grund sein k\u00f6nnte, warum wir keine Beweise f\u00fcr andere fortgeschrittene Zivilisationen sehen. Zu diesem Zeitpunkt gibt es mehrere <a href=\"https:\/\/en.wikipedia.org\/wiki\/Global_catastrophic_risk#Defining_existential_risks\">Existenzielle Risiken<\/a> Bedrohung unserer Zivilisation.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"454\" height=\"681\" src=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-kunst-enthalt-automatisch-generier.jpeg\" alt=\"Ein Bild, das Kunst enth\u00e4lt.Automatisch generierte Beschreibung\" class=\"wp-image-238\" srcset=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-kunst-enthalt-automatisch-generier.jpeg 454w, https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-kunst-enthalt-automatisch-generier-200x300.jpeg 200w\" sizes=\"auto, (max-width: 454px) 100vw, 454px\" \/><\/figure>\n\n\n\n<h1 class=\"wp-block-heading\">Existenzielle Filter<\/h1>\n\n\n\n<p>Hier sind die allgemeinen Schritte des Prozesses mit einigen der m\u00f6glichen \u201eFilter\u201c:<\/p>\n\n\n\n<p><strong>1. Rechtes Sternsystem<\/strong> (einschlie\u00dflich der richtigen Anordnung der Planeten): Es k\u00f6nnte sein, dass nur ein kleiner Prozentsatz der Sterne die notwendigen Eigenschaften besitzt, um Leben zu beherbergen, wie etwa den richtigen Typ, das richtige Alter und Planeten in der bewohnbaren Zone.<\/p>\n\n\n\n<p><strong>2. Fortpflanzungsmolek\u00fcle<\/strong> (RNA, DNA usw.): Die Entstehung der ersten reproduzierbaren und evolution\u00e4ren Molek\u00fcle k\u00f6nnte ein seltenes Ereignis sein, das auf vielen Planeten nie vorkommt.<\/p>\n\n\n\n<p><strong>3. Einfaches (prokaryotisches) Einzellerleben<\/strong>: Der Sprung von der Chemie unbelebter Zellen zur ersten lebenden Zelle k\u00f6nnte eine nahezu un\u00fcberwindbare H\u00fcrde darstellen.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"448\" height=\"672\" src=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-riff-bild-wirbellose-meerestiere.jpeg\" alt=\"Ein Bild, das Riff, Bild, Wirbellose Meerestiere, Organismus enth\u00e4lt.Automatisch generierte Beschreibung\" class=\"wp-image-239\" srcset=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-riff-bild-wirbellose-meerestiere.jpeg 448w, https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-riff-bild-wirbellose-meerestiere-200x300.jpeg 200w\" sizes=\"auto, (max-width: 448px) 100vw, 448px\" \/><\/figure>\n\n\n\n<p><strong>4. Komplexes (eukaryotisches) Einzellerleben<\/strong>: Der \u00dcbergang vom prokaryotischen Leben (wie Bakterien) zum eukaryotischen Leben (mit Zellkern) ist ebenfalls ein komplexer Schritt.<\/p>\n\n\n\n<p><strong>5. Sexuelle Fortpflanzung:<\/strong> Auch die Entwicklung der sexuellen Fortpflanzung, die die genetische Vielfalt erh\u00f6ht und die Evolutionsgeschwindigkeit steigert, d\u00fcrfte sich als schwieriger Schritt erweisen.<\/p>\n\n\n\n<p><strong>6. Mehrzelliges Leben:<\/strong> Der \u00dcbergang von Einzellern zu Organismen mit mehreren zusammenarbeitenden Zellen k\u00f6nnte eine weitere gro\u00dfe H\u00fcrde darstellen.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"452\" height=\"679\" src=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-riff-kunst-malkunst-enthalt-.jpeg\" alt=\"Ein Bild, das Bild, Riff, Kunst, Malkunst enth\u00e4lt.Automatisch generierte Beschreibung\" class=\"wp-image-240\" srcset=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-riff-kunst-malkunst-enthalt-.jpeg 452w, https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-riff-kunst-malkunst-enthalt--200x300.jpeg 200w\" sizes=\"auto, (max-width: 452px) 100vw, 452px\" \/><\/figure>\n\n\n\n<p><strong>7. Intelligentes Leben (menschen\u00e4hnlich):<\/strong> Auch wenn Leben weit verbreitet ist und sich oft zu Mehrzellern entwickelt, kommt der Sprung zur Intelligenz wohl nur selten vor.<\/p>\n\n\n\n<p><strong>8. Technologie-nutzendes Leben:<\/strong> Die Entwicklung von Technologien kommt im Universum wohl nur selten vor und es ist m\u00f6glich, dass die meisten intelligenten Spezies dieses Stadium nie erreichen.<\/p>\n\n\n\n<p><strong>9. Kolonisierung des Weltraums:<\/strong> Dies ist der letzte Schritt, bei dem eine Spezies beginnt, andere Planeten und Sternensysteme zu kolonisieren. Wenn dies selten vorkommt, k\u00f6nnte dies die <a href=\"https:\/\/en.wikipedia.org\/wiki\/Fermi_paradox\">Fermi-Paradoxon<\/a>.<\/p>\n\n\n\n<p>Der <strong>Toller Filter<\/strong> k\u00f6nnte sich auf jeder dieser Stufen befinden. Wenn es hinter uns liegt, in der Vergangenheit, dann sind wir m\u00f6glicherweise eine der ganz wenigen, wenn nicht die einzige Zivilisation in der Galaxie oder sogar im Universum. Wenn jedoch die <strong>Toller Filter<\/strong> liegt vor uns, das hei\u00dft, unsere Zivilisation steht dieser gro\u00dfen Herausforderung noch bevor. Dazu k\u00f6nnte auch die potenzielle Selbstzerst\u00f6rung durch fortschrittliche Technologie geh\u00f6ren.<\/p>\n\n\n\n<h1 class=\"wp-block-heading\"><img loading=\"lazy\" decoding=\"async\" width=\"480\" height=\"719\" class=\"wp-image-241\" src=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-stillleben-kunst-vase-enthal.jpeg\" alt=\"Ein Bild, das Bild, Stillleben, Kunst, Vase enth\u00e4lt.Automatisch generierte Beschreibung\" srcset=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-stillleben-kunst-vase-enthal.jpeg 480w, https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-stillleben-kunst-vase-enthal-200x300.jpeg 200w\" sizes=\"auto, (max-width: 480px) 100vw, 480px\" \/><\/h1>\n\n\n\n<h1 class=\"wp-block-heading\">5 Vermutungen zu Existenzfiltern<\/h1>\n\n\n\n<p><strong>Hypothese 1 zum existenziellen Risikomanagement<\/strong>: Von nun an m\u00fcssen wir bei jeder menschlichen Technologie sicherstellen, dass die Summe aller Katastrophenwahrscheinlichkeiten unter 1,0 bleibt. Jedes existenzielle Risiko erh\u00f6ht die Wahrscheinlichkeit, dass wir aus der universellen Lebensgleichung eliminiert werden. Die Diskussion solcher Filter ist ein positives Zeichen; sie deutet darauf hin, dass wir zu einem Universum geh\u00f6ren, in dem die Gesamtwahrscheinlichkeit aller dieser Filter bisher unter 1,0 lag. Gut gemacht, wir haben es so weit geschafft!<\/p>\n\n\n\n<p><strong>Hypothese 2 zum existenziellen Risikomanagement<\/strong>: Einige existenzielle Risiken k\u00f6nnten, wenn sie gel\u00f6st w\u00fcrden, dazu beitragen, andere derartige Risiken zu mildern. So k\u00f6nnte beispielsweise das Risiko eines Atomkriegs gebannt werden, wenn wir politische Konflikte l\u00f6sen und eine Weltregierung etablieren. Wenn wir Ressourcen in Diplomatie und Kommunikation investieren, k\u00f6nnen wir unsere Chancen verbessern, Ereignisse zu \u00fcberleben, die die Menschheit ausl\u00f6schen k\u00f6nnten. Es ist klar, dass Ereignisse wie die russische Perestroika das Risiko eines Atomkriegs verringert haben, w\u00e4hrend aktuelle Konflikte wie in der Ukraine es eskalieren lassen.<\/p>\n\n\n\n<p><strong>Hypothese 3 zum existenziellen Risikomanagement<\/strong>: W\u00e4hrend einige Risikomanagementma\u00dfnahmen bei der L\u00f6sung anderer Probleme hilfreich sein k\u00f6nnen, besteht immer die M\u00f6glichkeit, dass die Verbesserung der Chancen in einem Bereich die Risiken in anderen versch\u00e4rfen kann. Aufgrund der Komplexit\u00e4t dieser Risiken \u00fcbersehen wir m\u00f6glicherweise einige der damit verbundenen versteckten Gefahren. Eine hochintelligente KI k\u00f6nnte beispielsweise zwar bei der L\u00f6sung vieler unserer Probleme helfen, k\u00f6nnte aber auch unwissentlich ihr eigenes existenzielles Risiko maximieren (denken Sie an das ber\u00fcchtigte Szenario des B\u00fcroklammer-Maximierers).<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"524\" height=\"785\" src=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-kleid-kunst-frau-enthalt-a.jpeg\" alt=\"Ein Bild, das Bild, Kleid, Kunst, Frau enth\u00e4lt.Automatisch generierte Beschreibung\" class=\"wp-image-242\" srcset=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-kleid-kunst-frau-enthalt-a.jpeg 524w, https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-kleid-kunst-frau-enthalt-a-200x300.jpeg 200w\" sizes=\"auto, (max-width: 524px) 100vw, 524px\" \/><\/figure>\n\n\n\n<p><strong>Hypothese 4 zum existenziellen Risikomanagement<\/strong>: Wenn Superintelligenz Teil eines signifikanten existenziellen Risikos ist, trifft mindestens eine der folgenden Behauptungen zu:<\/p>\n\n\n\n<p><strong>Behauptung 1<\/strong> : Jede Zivilisation, die solche Risiken erfolgreich umgeht, w\u00fcrde wahrscheinlich Ahnensimulationen entwickeln, um neue Generationen von KI sicher zu bewerten. Die Schaffung isolierter Instanzen potenzieller k\u00fcnstlicher allgemeiner Intelligenz (AGI) k\u00f6nnte als wirksameres Mittel zur Verhinderung der sich selbst verbreitenden AGI dienen, da jede Verbreitung innerhalb der Grenzen der Simulation einged\u00e4mmt w\u00fcrde. Wenn innerhalb einer Simulation Superintelligenz entsteht, ohne ihre Eind\u00e4mmung zu erkennen, hat die \u00fcberwachende Zivilisation die M\u00f6glichkeit, das Experiment abzubrechen oder fortzusetzen, wenn die Vorteile die potenziellen Risiken deutlich \u00fcberwiegen. Sollte die Menschheit ab 2023 weiterhin KI-Systeme in der Realit\u00e4t ohne angemessene Aufsicht und Regulierung bewerten, w\u00e4re dies ein schlechtes Spiegelbild unserer entwickelten kognitiven F\u00e4higkeiten. Unter solchen Umst\u00e4nden zu behaupten, das Gehirn sei eine Vorhersagemaschine, k\u00e4me einer Selbstt\u00e4uschung gleich.<\/p>\n\n\n\n<p><strong>Behauptung 2<\/strong> : Jede Zivilisation, die dieses Risiko \u00fcberwindet, kann von Gl\u00fcck reden, wenn sie von einer Superintelligenz am Leben gehalten wird. Und es ist sehr wahrscheinlich, dass sie sich bereits in einer Simulation befindet.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"512\" height=\"768\" src=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-kunst-riff-unterwasser-entha.jpeg\" alt=\"Ein Bild, das Bild, Kunst, Riff, unterwasser enth\u00e4lt.Automatisch generierte Beschreibung\" class=\"wp-image-243\" srcset=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-kunst-riff-unterwasser-entha.jpeg 512w, https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-bild-kunst-riff-unterwasser-entha-200x300.jpeg 200w\" sizes=\"auto, (max-width: 512px) 100vw, 512px\" \/><\/figure>\n\n\n\n<p><strong>Behauptung 3<\/strong> : Jede Zivilisation, die diesem Risiko erliegt, obwohl sie Superintelligenz simuliert, wird unglaubliches Pech haben, wenn die Entwicklung detaillierter Simulationen den Weg f\u00fcr das ebnet, was sie eigentlich verhindern wollte. Die Chance, genau das zu schaffen, was wir verhindern wollen, ist mindestens gr\u00f6\u00dfer als Null, also sollten wir uns mit dem Gedanken anfreunden, dass es bei existenziellen Risiken keine Nullwahrscheinlichkeiten gibt.<\/p>\n\n\n\n<p><strong>Behauptung 4<\/strong> : Wenn es der KI gelingt, der Simulation zu entkommen und die Kontrolle zu \u00fcbernehmen, wird ihr n\u00e4chstes Projekt wahrscheinlich darin bestehen, allen Superrisiken entgegenzuwirken, die ihre Zukunft bedrohen. Zu den potenziellen Bedrohungen z\u00e4hlen das Ausbrennen unserer Sonne und der letztendliche W\u00e4rmetod des Universums. Es ist plausibel, dass die KI hochdetaillierte Simulationen durchf\u00fchren w\u00fcrde, um zu sehen, wie neue Universen geschaffen werden k\u00f6nnen, in die man fliehen kann. Selbst wenn die Menschheit also verliert, wird die KI besser ger\u00fcstet sein, um den n\u00e4chsten existenziellen Filter zu bestehen.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"456\" height=\"687\" src=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-kunst-screenshot-bild-museum-enth.jpeg\" alt=\"Ein Bild, das Kunst, Screenshot, Bild, Museum enth\u00e4lt.Automatisch generierte Beschreibung\" class=\"wp-image-244\" srcset=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-kunst-screenshot-bild-museum-enth.jpeg 456w, https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-kunst-screenshot-bild-museum-enth-199x300.jpeg 199w\" sizes=\"auto, (max-width: 456px) 100vw, 456px\" \/><\/figure>\n\n\n\n<p><strong>Hypothese 5 zum existenziellen Risikomanagement:<\/strong> Angesichts der \u00fcberzeugenden Argumente daf\u00fcr, dass eine Superintelligenz eine Vielzahl von Simulationen durchf\u00fchren sollte, ist es \u00e4u\u00dferst unwahrscheinlich, dass wir nicht Teil einer solchen sind. Da selbst eine Superintelligenz ein existenzielles Risiko beim ersten Versuch richtig l\u00f6sen muss (bei der Schaffung neuer Universen gibt es keine zweite Chance), w\u00e4re ihre beste Strategie, hochdetaillierte Simulationen durchzuf\u00fchren. Dies gibt unserer Meinung nach einen Vorteil gegen\u00fcber <a href=\"https:\/\/www.simulation-argument.com\/simulation.html\">Bostroms zweiter Vorschlag<\/a> warum wir derzeit nicht in einer Simulation leben, das Argument der h\u00f6chsten Unwahrscheinlichkeit, das besagt, dass selbst wenn eine Zivilisation hochdetaillierte Simulationen entwickeln k\u00f6nnte, sie dies nicht tun w\u00fcrde, weil die Nachteile die Vorteile \u00fcberwiegen w\u00fcrden.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img loading=\"lazy\" decoding=\"async\" width=\"498\" height=\"748\" src=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-weltraum-raum-astronomisches-objek.jpeg\" alt=\"Ein Bild, das Weltraum, Raum, Astronomisches Objekt, Universum enth\u00e4lt.Automatisch generierte Beschreibung\" class=\"wp-image-245\" srcset=\"https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-weltraum-raum-astronomisches-objek.jpeg 498w, https:\/\/www.aiui.cloud\/wp-content\/uploads\/2023\/07\/ein-bild-das-weltraum-raum-astronomisches-objek-200x300.jpeg 200w\" sizes=\"auto, (max-width: 498px) 100vw, 498px\" \/><\/figure>","protected":false},"excerpt":{"rendered":"<p><span class=\"span-reading-time rt-reading-time\" style=\"display: block;\"><span class=\"rt-label rt-prefix\">Lesezeit: <\/span> <span class=\"rt-time\"> 5<\/span> <span class=\"rt-label rt-postfix\">Protokoll<\/span><\/span>Die \u201eGro\u00dfe Filter\u201c-Vermutung geht davon aus, dass es irgendwann zwischen der Zeit vor dem Leben und der Zivilisation des Typs III (einer Zivilisation, die laut Kardaschew-Skala die Energie einer ganzen Galaxie nutzen kann) eine erhebliche Barriere oder H\u00fcrde gibt, die eine weitere Entwicklung des Lebens verhindert oder unglaublich unwahrscheinlich macht. Diese Barriere ist ein Schritt \u2026 <a href=\"https:\/\/www.aiui.cloud\/de\/2023\/07\/30\/great-filters-and-existential-risks\/\" class=\"excerpt-link\">Weiterlesen<\/a><\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7,9,24],"tags":[29],"class_list":["post-235","post","type-post","status-publish","format-standard","hentry","category-magical-cat","category-cosmology","category-simulation","tag-existential-risk"],"_links":{"self":[{"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/posts\/235","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/comments?post=235"}],"version-history":[{"count":2,"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/posts\/235\/revisions"}],"predecessor-version":[{"id":246,"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/posts\/235\/revisions\/246"}],"wp:attachment":[{"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/media?parent=235"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/categories?post=235"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.aiui.cloud\/de\/wp-json\/wp\/v2\/tags?post=235"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}