Dieser Beitrag wurde am 17. August 2021 von Holden Karnofsky im englischen Original auf Cold Takes veröffentlicht und im Jahr 2023 ins Deutsche übersetzt.

Dies ist einer von 4 Beiträgen, die Hunderte von Seiten technischer Berichte zusammenfassen, die sich fast ausschließlich auf die Vorhersage einer Zahl konzentrieren: das Jahr, in dem transformative KI entwickelt sein wird.1

Unter „transformativer KI“ verstehe ich eine „KI, die leistungsfähig genug ist, uns in eine neue, qualitativ andere Zukunft zu führen“. Dabei spreche ich spezifisch das an, was ich PASTA nenne: KI-Systeme, die im Wesentlichen alle menschlichen Aktivitäten zur Beschleunigung des wissenschaftlichen und technologischen Fortschritts automatisieren können.

Je eher PASTA entwickelt wird, desto eher könnte sich die Welt radikal ändern und umso wichtiger scheint es, heute darüber nachzudenken, wie man dafür sorgt, dass diese Änderung gut oder eben schlecht läuft.

In künftigen Beiträgen werde ich zwei Methoden vorstellen, um eine „beste Schätzung“ darüber abzugeben, wann wir mit der Entwicklung einer transformativen KI rechnen können. Doch zunächst möchte ich in diesem Beitrag auf die Frage eingehen: Wie gut müssen diese Prognosemethoden sein, damit wir sie ernst nehmen können? Mit anderen Worten: Wie hoch ist die „Beweislast“ für die Vorhersage von Zeitplänen für transformative KI?

Sagt jemand transformative KI im 21. Jh. voraus — insbesondere im Bewusstsein dessen, mit welchen Konsequenzen das verbunden wäre – lautet eine gängige intuitive Antwort etwa so: „Es ist wirklich abwegig und verrückt zu behaupten, dass eine transformative KI noch in diesem Jahrhundert kommen wird. Ihre Argumente sollten also wirklich gut sein.“

Meiner Ansicht nach ist dies eine sehr vernünftige erste Reaktion auf Prognosen über transformative KI (Tatsächlich habe ich anfänglich in gleicher Weise reagiert). Aber ich habe versucht, die Hintergründe und Rechtfertigung dieser Reaktion näher zu untersuchen und bin letztendlich zu dem Schluss gelangt, dass ich ihr widerspreche.

  • Ich denke, es gibt eine Reihe von Gründen, zu denken, dass transformative KI – etwas wirklich gewaltiges – in diesem Jahrhundert einigermaßen wahrscheinlich ist, selbst bevor wir Details zu Forschung und Fortschritten im Bereich der KI betrachten.
  • Ich denke auch, dass wir beim Betrachten von Zeiträumen von mehreren Jahrzehnten, wie sie hier Thema sind, generell recht offen gegenüber der Möglichkeit abgefahrener, disruptiver, sogar revolutionärer Veränderungen sein sollten. Vor diesem Hintergrund denke ich, dass spezifische, gut recherchierte Schätzungen dazu, wann transformative KI entwickelt wird, glaubhaft sein können, selbst wenn viele Vermutungen involviert sind und sie nicht vollends robust sind.

Dieser Beitrag soll erklären, wie ich zu dieser Annahme gelange.

Im Folgenden werde ich (a) spezifischer darauf eingehen, welche Prognosen zu transformativer KI ich vertrete; dann (b) erörtern, wie sich die „Das ist zu verrückt“-Reaktion auf solche Prognosen formalisieren lässt; dann (c) durch jede einzelne Reihe der Tabelle gehen, wobei jede Reihe eine andere Art der Formalisierung der Reaktion darstellt.

Perspektive auf die „Beweislast“ Zentrale, detaillierte Texte (abgekürzte Titel) Meine Takeaways
Für ein jedes Jahrhundert ist es unwahrscheinlich, dass es das „wichtigste“ sein sollte. (Mehr dazu Dreh- und Angelpunkt; Reaktion auf die Hypothese vom Dreh- und Angelpunkt   Wir haben viele Gründe zu glauben, dass dieses Jahrhundert ein „besonderes“ ist – noch bevor wir uns Details zu KI anschauen. Viele wurden in vorigen Beiträgen beleuchtet; ein weiterer wird in der nächsten Reihe dieser Tabelle erwähnt. 
Was würde man über die Entwicklung transformativer KI prognostizieren, wenn man nur grundlegende Informationen dazu hätte, (a) wie viele Jahre Leute bereits an der Entwicklung transformativer KI gearbeitet haben; (b) wie viel in den Bereich „investiert“ wurde (was die Zahl der KI-Forschenden und die Menge an genutzter Rechenleistung angeht); (c) ob sie es schon geschafft haben (bisher haben sie es nicht)? (Mehr dazu Semi-informative A-priori-Wahrscheinlichkeiten   Zentrale Schätzungen: 8 % bis 2036; 13 % bis 2060; 20 % bis 2100.2 Meiner Ansicht nach zeigt dieser Report, dass die Geschichte von KI kurz ist, Investitionen in KI sich schnell beschleunigen und wir daher nicht allzu überrascht sein sollten, wenn transformative KI bald entwickelt wird.  
Wie wahrscheinlich ist ‚explosives Wachstum‘ – definiert als > 30 % jährliches Wachstum der Weltwirtschaft – bis zum Jahr 2100 basierend auf Analysen ökonomischer Modelle und der Wirtschaftsgeschichte? Ist das „abwegig“ genug, dass wir an der Schlussfolgerung zweifeln sollten? (Mehr dazu)   Explosives Wachstum; Modellieren der menschlichen Trajektorie Der Bericht zum Modellieren der menschlichen Trajektorie projiziert die Vergangenheit nach vorne, was explosives Wachstum zwischen 2043-2065 impliziert. 

Der Bericht zu explosivem Wachstum kommt zu folgendem Schluss: „Ich stelle fest, dass ökonomische Betrachtungen keinen guten Grund zum Zurückweisen der Möglichkeit, dass transformative KI dieses Jahrhundert entwickelt wird, darstellen. In der Tat gibt es plausible ökonomische Perspektiven laut denen explosives Wachstum in diesem Jahrhundert durch hinlänglich fortschrittliche KI-Systeme erwartbar ist.“  
„Wie lauteten Prognosen zu KI … in der Vergangenheit und sollten wir unsere aktuellen Ansichten auf der Grundlage früheren Prognosemuster adjustieren? … Wir sind der Ansicht begegnet, dass KI mehrfach anfällig für übermäßigem Hype war und dass wir daher erwarten sollten, dass die heutigen Projektionen wahrscheinlich  zu optimistisch sind.“ (Mehr dazu Vergangene Prognosen über KI „Der Höhepunkt des KI-Hypes scheint in der Zeit von 1956 bis 1973 gewesen zu sein. Jedoch ist das Ausmaß des Hypes, das durch einige der am besten bekannten KI-Prognosen aus dieser Zeit impliziert wird, oft übertrieben.“ 
Der Transparenz wegen sei darauf verwiesen, dass die Berichte für die letzten drei Reihen allesamt Analysen von Open Philanthropy sind und ich der Co-CEO von Open Philanthropy bin.

Ein paar grobe Wahrscheinlichkeiten

Dies sind einige meiner Vorstellungen zu transformativer KI und mein Versuch, diese zu verteidigen:

  • Ich glaube, die Wahrscheinlichkeit, dass wir eine Entität sehen werden, die PASTA hinreichend ähnelt um als „transformative KI“ durchzugehen, liegt innerhalb der nächsten 15 Jahre (bis 2036) bei über 10 %; innerhalb von 40 Jahren (bis 2060) bei ~50 %; und innerhalb dieses Jahrhunderts (bis 2100) bei ~⅔.
  • Unter der Bedingung, dass das die vorgenannte Prognose eintritt, liegt meiner Ansicht nach die Wahrscheinlichkeit einer durch digitale Personen oder fehlausgerichtete KI geführten Welt oder etwas anderem, von dem wir fairerweise sagen könnten, dass wir „zu einem Zustand übergegangen sind, in dem Menschen in ihrer bekannten Form nicht mehr die wichtigste Kraft im Weltgeschehen sind“, bei mindestens 50 %.
  • Und unter der Bedingung, dass das eintritt,   halte ich es für wenigstens 50 % wahrscheinlich, dass was auch immer dann die treibende Kraft für das Weltgeschehen ist, eine stabile galaktische Zivilisation von einer Dauer von Jahrmilliarden errichten wird. (Das entspricht dem zweiten Punkt in meiner Definition des „wichtigsten Jahrhunderts“ aus der Skizze der Reihe.)

Ich habe mehr Details dazu, was ich mit „das wichtigste Jahrhundert“ meine, hier gesammelt.

Formalisieren der „Das ist zu verrückt“-Reaktion

Oft äußert jemand eine Ansicht, an der ich nicht sofort einen konkreten Fehler erkennen kann, die ich aber instinktiv für „zu verrückt“ halte, um wahrscheinlich zu sein. Zum Beispiel: „Mein Startup wird das nächste Google“ oder „Das College wird in 10 Jahren überflüssig sein“ oder „Als Präsident würde ich beide Seiten zusammenbringen, anstatt nur parteiisch zu sein“.

Ich stelle die Hypothese auf, dass die Reaktion „Das ist zu verrückt“ auf Aussagen wie diese in der Regel folgendermaßen formuliert werden kann: „Was auch immer deine Argumente dafür sind, dass X wahrscheinlich ist, es gibt irgendeine besondere Art, die Dinge zu betrachten (oft stark vereinfacht, aber relevant), die X sehr unwahrscheinlich erscheinen lässt.

Für die gerade genannten Beispiele:

  • Mein Startup wird das nächste Google.“  Es gibt eine große Anzahl von Startups (Millionen?) und die überwiegende Mehrheit entwickelt sich nicht annähernd zu etwas wie Google. (Auch wenn ihre Gründer das glauben!)
  • Das College wird in 10 Jahren veraltet sein.“  Hochschulen gibt es schon seit Hunderten von Jahren und zu keinem Zeitpunkt erschienen sie sonderlich entbehrlich.
  • Als Präsident würde ich beide Seiten zusammenbringen, anstatt nur parteiisch zu sein.“ Das sagen angehende US-Präsidenten häufig, aber die Parteilichkeit scheint sich zumindest seit ein paar Jahrzehnten zu verschärfen.

In jedem dieser Fälle werden eine Art Ausgangspunkt (oder „A-priori“-Wahrscheinlichkeit) und eine „Beweislast“ festgelegt und wir können dann weitere Evidenz berücksichtigen, welche die Beweislast überwinden könnte. Das heißt, wir können Fragen stellen wie: Was unterscheidet dieses Startup von den vielen anderen Startups, die glauben, das nächste Google sein zu können? Was unterscheidet das kommende Jahrzehnt von allen vorangegangenen Jahrzehnten, in denen das College relevant blieb? Was ist bei diesem Präsidentschaftskandidaten anders als bei den letzten?

Es gibt verschiedene Möglichkeiten, die Beweislast für meine obigen Behauptungen zu betrachten:  eine Reihe von Möglichkeiten, um eine vorherige („Ausgangs-„) Wahrscheinlichkeit zu erhalten, die dann durch weitere Beweise aktualisiert werden kann.

Viele von ihnen fangen verschiedene Aspekte der Intuition „Das ist zu verrückt“ ein, indem sie vorherige Wahrscheinlichkeiten erzeugen, die (zumindest anfangs) die von mir angegebenen Wahrscheinlichkeiten zu hoch erscheinen lassen.

Im Folgenden werde ich eine Reihe dieser „A-priori-Wahrscheinlichkeiten“ durchgehen und untersuchen, was sie für die „Beweislast“ der Prognosemethoden bedeuten, die ich in späteren Beiträgen erörtern werde.

Unterschiedliche Sichtweisen auf die Beweislast

Skepsis gegenüber dem „wichtigsten Jahrhundert“

Eine Sichtweise auf die Beweislast stellt sich wie folgt dar:

  • Holden behauptet, es bestehe eine 15-30%ige Chance, dass dies in der einen oder anderen Hinsicht das „wichtigste Jahrhundert“ ist.3
  • Aber es gibt viele Jahrhunderte und per definitionem können die meisten von ihnen nicht die wichtigsten sein. Oder spezifischer:
    • Menschen gibt es seit rund 50.000 bis ~5 Millionen Jahren, je nachdem wie man „Menschen“ definiert4 Das sind 500 bis 50.000 Jahrhunderte.
    • Wenn wir davon ausgehen, dass unsere Zukunft ungefähr so lang ist wie unsere Vergangenheit, dann gibt es insgesamt 1.000 bis 100.000 Jahrhunderte.
    • Also beträgt die vorherige (Ausgangs-)Wahrscheinlichkeit für das „wichtigste Jahrhundert“ 1/100.000 bis 1/1.000.
  • Tatsächlich ist es noch schlimmer: Holden redet von Zivilisationen, die über Jahrmilliarden bestehen. Das sind zig Millionen von Jahrhunderten, so dass die Wahrscheinlichkeit, dass es sich um das „wichtigste Jahrhundert“ handelt, weniger als 1/10.000.000 beträgt.

(Are We Living at the Hinge of History? argumentiert auch in diesem Sinne, jedoch mit gewissen Unterschieden.)5

Dieses Argument scheint meine größten Bedenken gegenüber der Hypothese des „wichtigsten Jahrhunderts“ zu bestätigen. Ich denke jedoch, dass es viele Anzeichen dafür gibt, dass es sich nicht um ein durchschnittliches Jahrhundert handelt, noch bevor wir spezifische Argumente zur KI berücksichtigen.

Ein entscheidender Punkt kommt in meinem früheren Beitrag, Sämtliche möglichen Ansichten über die Zukunft der Menschheit sind verrückt, zur Sprache. Wenn man glaubt, dass der Mensch (oder seine Nachkommen) noch Milliarden von Jahren vor sich hat, sollte man annehmen, dass wir zu den allerersten Menschen gehören, was wiederum viel plausibler macht, dass unsere Zeit zu den wichtigsten gehört. (Das wird auch betont in Thoughts on whether we’re living at the most influential time in history wie auch den Kommentaren zu einer früheren Version von „Are We Living at the Hinge of History?.) 

Hinzu kommt, dass die Menschheit zwar schon seit ein paar Millionen Jahren existiert, aber die meiste Zeit über eine extrem niedrige Bevölkerungszahl hatte und nur sehr wenig technologischen Fortschritt gemacht hat. Die menschliche Zivilisation begann vor etwa 10.000 Jahren und seither sind wir bereits so weit fortgeschritten, dass wir digitale programmierbare Computer bauen und unser Sonnensystem erforschen können.

In Anbetracht dieser Punkte scheint es plausibel, dass wir irgendwann in den nächsten 100.000 Jahren (1000 Jahrhunderten) eine stabile galaktische Zivilisation gründen werden. Oder zu glauben, dass es eine 10%ige Chance gibt, dass wir dies irgendwann in den nächsten 10.000 Jahren (100 Jahrhunderten) tun werden. In jedem Fall bedeutet dies, dass ein jedes Jahrhundert bis dahin statistisch eine Chance von ~1/1.000 hat, das wichtigste Jahrhundert für den Anbruch dieser Zivilisation zu sein – eine viel höhere Wahrscheinlichkeit als die, die zuvor in diesem Abschnitt angegeben wurden. Das ist noch ~100x von den Zahlen, die ich oben angegeben habe, entfernt, also gibt es nach wie vor eine Beweislast. Es gibt noch weitere Gründe , die für den Sonderstatus dieses Jahrhunderts sprechen. Siehe zum Beispiel So kann’s nicht weitergehen:

  • Das Gesamtvolumen der Weltwirtschaft ist in den letzten zwei Jahrhunderten stärker gewachsen als in der gesamten übrigen Geschichte zusammen.
  • Das derzeitige Wirtschaftswachstum kann nur noch etwa 80 Jahrhunderte lang aufrechterhalten werden. (Und wie weiter unten erörtert, würde eine Fortsetzung des jüngeren (beschleunigenden) Wachstumstrends ein explosionsartiges Wachstum und das Erreichen der Grenzen des Möglichen in diesem Jahrhundert bedeuten.)
  • Es ist plausibel, dass die Wissenschaft in den letzten 5 Jahrhunderten mehr Fortschritte gemacht hat als im Rest der Geschichte zusammen.

Ein letzter Punkt, der unsere Zeit besonders macht: Wir sprechen darüber, wann wir eine transformative KI erwarten können, während die ersten KI-Bemühungen noch nicht weit hinter uns liegen. In weit weniger als einem Jahrhundert sind wir von den ersten programmierbaren elektronischen Allzweck-Computern bis zu KI-Modellen fortgeschritten, die es in Spracherkennung,6 Bildklassifizierung und dergleichen mehr mit dem Menschen aufnehmen können.

Mehr zu den Implikationen davon im nächsten Abschnitt.

Dank an María Gutiérrez Rojas für diese Grafik. Die obere Zeitleiste veranschaulicht, wie die jüngsten Meilensteine der Computertechnik und KI aussehen. Darunter befinden sich (in Ausschnitten) weitere Zeitleisten, die zeigen, wie bedeutsam dieser Zeitraum von wenigen hundert Jahren (mehr in So kann’s nicht weitergehen) und diese Ära (mehr in Sämtliche möglichen Ansichten zur Zukunft der Menschheit sind verrückt) zu sein scheinen.

Semi-informative A-priori-Wahrscheinlichkeiten

Der Bericht zu semi-informativen A-priori-Wahrscheinlichkeiten ist ein umfassender Versuch, den Zeitplan für transformative KI zu prognostizieren und dabei so wenig Informationen wie möglich über die Eigentümlichkeiten der KI zu verwenden. Es ist also eine Möglichkeit, einen Blick auf die „Beweislast“ zu werfen, d. h. eine Reihe von Wahrscheinlichkeiten dafür festzulegen, wann eine transformative KI entwickelt wird, bevor wir uns die detaillierten Beweise ansehen.

Die zentrale Information, auf die der Bericht zurückgreift, ist die, wie viel Aufwand bisher in die Entwicklung von KI geflossen ist.  Der Grundgedanke:

  • Wenn wir seit Tausenden von Jahren versucht hätten, eine transformative KI zu entwickeln, und dabei gescheitert wären, so wären die Erfolgsaussichten in den kommenden Jahrzehnten gering.
  • Wenn wir jedoch bisher nur ein paar Jahrzehnte lang versucht haben, KI-Systeme zu entwickeln, bedeutet dies, dass in den nächsten Jahrzehnten ein großer Teil aller jemals unternommenen Anstrengungen stattfinden könnte. Die Chancen, sie in dieser Zeit zu entwickeln, sind gar nicht so gering.
  • Bevor wir uns mit den Einzelheiten des Fortschritts der KI befassen, sollten wir uns darüber im Klaren sein, ob die Entwicklung einer transformativen KI relativ „leicht“ (in wenigen Jahrzehnten) oder „schwer“ (in Tausenden von Jahren) ist.  Da es noch zu früh ist, ist die Möglichkeit, dass es „leicht“ ist, noch gegeben.

Etwas mehr zu Ansatz und Schlussfolgerungen des Berichts:

Blickwinkel der Analyse. In dem Bericht wird folgende Frage gestellt (paraphrasiert): „Angenommen, du wärest an dem Tag in die Isolation gegangen, an dem die Menschen begannen, in den Aufbau von KI-Systemen zu investieren.  Und nun stelle man sich vor, man würde jährlich darüber informiert, (a) wie viele Jahre die Menschen schon versuchen, transformative KI zu entwickeln; (b)  wie viel sie in das Projekt „investiert“ haben (in Form von Zeit und Geld); (c) ob sie schon erfolgreich waren (bisher nicht). Was kann man ab 2021 anhand lediglich dieser Informationen über die Prognose zum Aufkommen transformativer KI sagen?“

Die Methoden des Berichts sind vom Sunrise Problem inspiriert: „Nehmen wir an, man wüsste nichts über das Universum, außer dass man weiß, ob die Sonne an jedem Tag aufgegangen ist. Nehmen wir an, es gab bisher N Tage und die Sonne ist an allen aufgegangen. Wie groß ist die Wahrscheinlichkeit, dass die Sonne morgen aufgehen wird?“ Man muss nichts über Astronomie wissen, um eine vernünftige Antwort auf diese Frage zu bekommen – es gibt einfache mathematische Methoden, um die Wahrscheinlichkeit zu schätzen, dass X morgen eintritt, basierend auf der Tatsache, dass X jeden Tag in der Vergangenheit passiert ist. „Semi-informative A-priori-Wahrscheinlichkeiten“ erweitert diese mathematischen Methoden, um sie an die Zeitpläne für transformative KI anzupassen. (In diesem Fall ist „X“ das Versäumnis, transformative KI zu entwickeln, wie es in der Vergangenheit der Fall war).

Schlussfolgerungen. Ich will diesbezüglich nicht allzu sehr ins Detail gehen (siehe den Blog-Beitrag, der den Report zusammenfasst, für mehr Details), aber zu den Schlussfolgerungen  des Reports gehört Folgendes:

  • Die Wahrscheinlichkeit, dass bis 2036 eine AGI (zu der auch PASTA gehören würde) entsteht, liegt zwischen 1 und 18%, wobei der beste Wert bei 8% liegt.
  • Demnach liegt die Wahrscheinlichkeit von AGI bis 2060 bei etwa 3-25% (beste Schätzung ~13%) und die Wahrscheinlichkeit von AGI bis 2100 bei etwa 5-35%, beste Schätzung 20%.

Diese Schätzungen liegen etwas unter den Wahrscheinlichkeiten, die ich oben angegeben habe, aber nicht weit darunter. Dies bedeutet, dass es keine enorme Beweislast gibt, wenn zusätzliche Beweise für die spezifischen Umstände von KI-Investitionen und -Fortschritten vorgelegt werden.

Anmerkungen zum Startschuss für die Entwicklung von AGI. Interessant ist hier, dass der Bericht weniger empfindlich ist, als man denken könnte, wenn es darum geht, wie wir den „Starttermin“ für die Entwicklung von AGI definieren (siehe diesen Abschnitt des vollständigen Reports). Und zwar:

  • Standardmäßig modelliert „Semi-informative A-priori-Wahrscheinlichkeiten“ die Situation so, als ob die Menschheit 1956 mit dem „Versuch“ begonnen hätte, eine AGI zu entwickeln.7 Das bedeutet, dass die Bemühungen erst ~65 Jahre alt sind, sodass die kommenden Jahrzehnte einen großen Teil der Bemühungen ausmachen werden.
  • Aber der Bericht befasst sich auch mit anderen Messgrößen für den „Aufwand zur Entwicklung von AGI“ – insbesondere mit der Zeit der Forschenden und der „Rechenleistung“ (Processing Power).  Selbst wenn man davon ausgeht, dass wir seit dem Beginn der menschlichen Zivilisation vor ca. 10.000 Jahren implizit versuchen, eine AGI zu entwickeln, werden die kommenden Jahrzehnte einen großen Teil der Forschungsanstrengungen und Berechnungen beinhalten, die in diesen Versuch investiert werden.

Fazit zu diesem Abschnitt.

  • Gelegentlich höre ich jemanden etwas sagen wie: „Wir versuchen seit Jahrzehnten, eine transformative KI zu entwickeln, und es ist uns noch nicht gelungen – warum glaubst Du, dass die Zukunft anders sein wird?“ Zumindest bestärkt dieser Bericht die aus meiner Sicht vernünftige Position, dass ein paar Jahrzehnte von „noch keine transformative KI, trotz der Bemühungen, sie zu entwickeln“ kein triftiges Argument gegen die Möglichkeit darstellen, dass transformative KI in den nächsten zehn oder binnen weniger Jahrzehnte kommen wird.
  • Tatsächlich leben wir in großer zeitlicher Nähe zu den Anfängen der KI-Entwicklung – eine weitere „Besonderheit“ unseres Jahrhunderts, so dass wir nicht allzu überrascht sein sollten, wenn es sich als das Schlüsseljahrhundert für die KI-Entwicklung erweisen sollte.

Wirtschaftswachstum

Ein anderer Blickwinkel auf die Beweislast geht in diese Richtung:

Sollte PASTA in absehbarer Zeit entwickelt werden und die in dieser Beitragsreihe beschriebenen Folgen haben, wäre dies eine massive Veränderung der Welt – und die Welt verändert sich einfach nicht so schnell.

Um dies zu quantifizieren: Die Weltwirtschaft ist in den letzten mehr als 200 Jahren um einige Prozent pro Jahr gewachsen und PASTA würde ein viel schnelleres Wachstum, möglicherweise 100% pro Jahr oder mehr,  implizieren.

Wenn wir uns auf eine Welt mit explosionsartigem Wirtschaftswachstum zubewegen würden, müsste sich das Wirtschaftswachstum bereits heute beschleunigen. Das tut es nicht – es stagniert, zumindest in den am weitesten entwickelten Volkswirtschaften. Wenn die KI wirklich alles revolutionieren würde, sollte sie zum jetzigen Zeitpunkt zumindest genug Wert schaffen – genug neue Produkte, Transaktionen und Unternehmen – um das Wirtschaftswachstum in den USA insgesamt zu beschleunigen.

KI mag zu coolen neuen Technologien führen, aber es gibt keine Anzeichen für etwas, das auch nur annähernd so bedeutsam wäre wie PASTA. Der Übergang von unserem jetzigen Stand zu dem, wohin PASTA uns führen würde, ist eine plötzliche Veränderung, die es in der Vergangenheit nicht gegeben hat und die auch in Zukunft nicht zu erwarten ist.

(Wenn du mit dem Wirtschaftswachstum nicht so vertraut bist, könnte es sinnvoll sein meine Kurzerläuterung zu lesen, ehe du hier weiterliest.)

Ich halte dies für eine vernünftige Sichtweise und bin vor allem skeptisch, was die unmittelbar bevorstehenden Prognosen für transformative KI (2036 und früher) angeht.

Meine Antwort hierauf ist im Wesentlichen, dass das Bild des stetigen Wachstums – „die Weltwirtschaft wächst ein paar Prozent pro Jahr“ – sehr viel komplizierter wird, wenn wir zurückgehen und die gesamte Wirtschaftsgeschichte betrachten und nicht nur die letzten paar Jahrhunderte. So gesehen hat sich das Wirtschaftswachstum zumeist beschleunigt8 und wenn man die Beschleunigung fortschreibt, könnte dies zu einem sehr schnellen Wirtschaftswachstum in den kommenden Jahrzehnten führen.

Ferner habe ich schon in Der Duplikator und So kann’s nicht weitergehen über dieses Thema geschrieben; hier möchte ich die wichtigsten darin zitierten Berichte in aller Kürze zusammenfassen.

Could Advanced AI Drive Explosive Economic Growth? stellt explizit die Frage: „Wie wahrscheinlich ist ein ‚explosionsartiges Wachstum’ – definiert als ein jährliches Wachstum der Weltwirtschaft von mehr als 30% – bis zum Jahr 2100?“ Dabei werden die Argumente beider Seiten berücksichtigt, einschließlich (a) der langfristigen Betrachtung der Geschichte, die eine Beschleunigung des Wachstums zeigt; (b) der Tatsache, dass das Wachstum in den letzten 200 Jahren bemerkenswert stabil war, was bedeutet, dass sich etwas geändert haben könnte.

Der Bericht kommt zu folgendem Schluss: „Die Spanne an Möglichkeiten für langfristiges Wachstum ist äußerst weit. Sowohl explosives Wachstum als auch Stagnation sind plausibel.“

Modellieren der mensc“lichen Trajektorie fragt, welche Zukunft wir erwarten können, wenn wir die bestehenden Trends für den historischen Lauf der Wirtschaftsgeschichte extrapolieren. Die Antwort ist explosionsartiges Wachstum um 2043–2065 – nicht allzu weit entfernt von dem, was meine oben genannten Wahrscheinlichkeiten nahelegen. Das bedeutet für mich, dass die fehlende wirtschaftliche Beschleunigung in den letzten 200 Jahren ein „Ausrutscher“ sein könnte, der durch die technologische Entwicklung, die die Rückkopplungsschleife wiederherstellt, bald behoben sein wird (nähere erörtert in Der Duplikator), so dass die Beschleunigung weitergehen kann.

Um es klar zu sagen: Es gibt auch gute Gründe, dieser Prognose nicht zu viel Gewicht beizumessen,9 und ich präsentiere sie eher als einen Ausblick auf die „Beweislast“ und nicht als eine Hauptprognose, für die Entwicklung von PASTA.

Geschichte des „KI-Hypes

Ein weiterer Blickwinkel auf die Beweislast: Ich höre manchmal Kommentare wie: „KI wurde in der Vergangenheit oft überbewertet und aufgeregten Technolog:innen zufolge steht transformative KI10 ständig „vor der Tür“. Deine Schätzungen sind nur die jüngsten in dieser Tradition. Da frühere Schätzungen falsch waren, sind es deine wahrscheinlich auch.

Ich glaube jedoch nicht, dass die Geschichte des „KI-Hype“ diese Art von Behauptung rechtfertigt. Was sollten wir aus vergangenen KI-Prognosen lernen? untersuchte die Geschichte der KI, um den tatsächlichen Verlauf des „KI-Hype“ nachzuvollziehen.

Die Zusammenfassung vermittelt folgende Eindrücke (man beachte, dass „HLMI“ (engl.: human level machine intelligence) oder „maschinelle Intelligenz auf menschlichem Niveau“ eine ziemlich ähnliche Idee wie PASTA ist):

  • Der Höhepunkt des KI-Hype scheint in den Jahren von 1956 bis 1973 gelegen zu haben. Dennoch wird der Hype, den einige der bekanntesten KI-Vorhersagen aus dieser Zeit implizieren, gemeinhin übertrieben.
  • Nach ~1973 schienen nur wenige Expert:innen HLMI (oder etwas Ähnliches) als mittelfristige Möglichkeit zu diskutieren, zum Teil weil viele Expert:innen aus dem Scheitern des früheren übermäßigen Optimismus in diesem Bereich gelernt hatten.
  • In der zweiten großen Phase des KI-Hype, in den frühen 1980er Jahren, ging es offenbar eher um die Möglichkeit kommerziell nützlicher, zweckgebundener „Expert:innensysteme“ und nicht um HLMI (oder etwas Ähnliches) …
  • Es ist mir unklar, ob mich die zeitgenössischen Kritiken am frühen KI-Optimismus überzeugt hätten oder ob ich damals die richtigen skeptischen Fragen gestellt hätte. Die substanziellste Kritik in den ersten Jahren kam von Hubert Dreyfus und ich vermute, dass ich sie damals überzeugend gefunden hätte, aber ich kann mir diesbezüglich nicht sicher sein.

Mein Resümee ist, dass es nicht besonders fair ist zu behaupten, dass es viele Wellen von separaten, übermäßig aggressiven Prognosen zu transformativer KI gegeben hat. In der Zeit von 1956 bis 1973 waren die Erwartungen wahrscheinlich zu hoch, aber ich glaube nicht, dass es einen Grund gibt, gut recherchierten Schätzungen heute eine massive „Beweislast“ aufzuerlegen.

Andere Sichtweisen auf die Beweislast

Hier noch ein paar andere Möglichkeiten, die Reaktion „Das ist zu abwegig einzuordnen:

Behauptungen der Art „Mein Anliegen ist sehr wichtig“. Viele Menschen – überall auf der Welt, heute und im Laufe der Geschichte – behaupten oder haben behauptet, dass das Thema, an dem sie arbeiten, enorm wichtig ist, oder gar von globaler oder sogar galaktischer Bedeutung sein könnte. Die meisten von ihnen müssen sich irren.

Ich denke, die Schlüsselfrage hier ist, ob die gegenwärtige Behauptung durch bessere Argumente und/oder vertrauenswürdigere Personen gestützt wird als andere „Mein Anliegen ist sehr wichtig“-Behauptungen. Wenn du bis zu diesem fortgeschrittenen Punkt in die Lektüre der Hypothese vom „wichtigsten Jahrhundert“ vorgedrungen bist, befindest du dich aus meiner Sicht in einer günstigen Position, um diese Frage für dich selbst zu beantworten.

Expert:innenmeinungen werden in künftigen Beiträgen ausführlich behandelt. Im Moment ist meine Hauptposition, dass die von mir aufgestellten Behauptungen weder einem bestimmten Expert:innenkonsens widersprechen noch von einem solchen unterstützt werden. Es handelt sich vielmehr um Behauptungen über Themen, für die es schlicht kein „Feld“ von Expert:innen gibt, die sich mit ihnen beschäftigen. Einige Leute mögen sich dafür entscheiden, Behauptungen zu ignorieren, die nicht aktiv von einem soliden Expert:innenkonsens unterstützt werden; aber angesichts der Bedeutsamkeit der hier diskutierten Themen, denke ich nicht, dass wir das in diesem Fall tun sollten.

(Allerdings kommt die beste verfügbare Umfrage unter KI-Forschende zu Schlussfolgerungen, die weitgehend mit meinen übereinstimmen, wie ich im nächsten Beitrag erläutern werde.)

Nicht erfasste „Das ist zu wild“-Reaktionen. Ich bin sicher, dass dieser Artikel nicht alle möglichen Aspekte erfasst hat, die einer „Das ist zu wild“-Reaktion zugrunde liegen könnten. (Nicht, weil ich es nicht versucht hätte!) Einige Leute werden einfach eine unumstößliche Intuition haben, dass die Behauptungen in dieser Serie zu wild sind, als dass man sie ernst nehmen könnte.

Ein allgemeiner Blick auf diese Sichtweisen. Was mich an den meisten Sichtweisen in diesem Abschnitt stört, ist, dass sie zu allgemein erscheinen.  Wenn man sich (in Ermangelung überwältigender Beweise) einfach weigert, jeglicher Behauptung Glauben zu schenken, die in das Schema „Mein Anliegen ist sehr wichtig“ passt oder die nicht bereits durch einen soliden Expert:innenkonsens gestützt wird oder die einfach nur wild klingt, scheint das ein gefährliches Denkmuster zu sein. Es ist anzunehmen, dass einige Menschen eines Tages im wichtigsten Jahrhundert leben werden; wir sollten misstrauisch gegenüber allen Denkmustern sein, die diese Leute verlässlich11 darauf schließen lassen, dass sie es nicht tun.


Fußnoten

  1. Natürlich könnte die Antwort lauten „eine Fantastilliarde Jahre in der Zukunft" oder „nie". ↩︎
  2. Technisch gesehen beziehen sich diese Wahrscheinlichkeiten auf AGI, nicht auf transformative KI. Die Wahrscheinlichkeiten für transformative KI könnten höher sein, wenn es möglich ist, transformative KI ohne künstliche allgemeine Intelligenz zu entwickeln, z. B. durch etwas wie PASTA. ↩︎
  3. Dies entspricht den zweiten beiden Aufzählungspunkten in diesem Abschnitt. ↩︎
  4. Aus der Wikipedia (ins Deutsche übersetzt): „Genetische Messungen deuten darauf hin, dass sich die Affenlinie, die zu Homo sapiens führte, von der Linie, die zu Schimpansen und Bonobos, den nächsten lebenden Verwandten des modernen Menschen, führte, vor etwa 4,6 bis 6,2 Millionen Jahren trennte.[23] Der anatomisch moderne Mensch entstand vor etwa 300.000 Jahren in Afrika[24] und erreichte vor etwa 50.000 Jahren das Stadium modernen Verhaltens.[25]" ↩︎
  5. So wird beispielsweise diskutiert, wie wahrscheinlich es ist, zu den „wichtigsten Menschen" zu gehören und nicht etwa „im wichtigsten Jahrhundert" zu leben. ↩︎
  6. Ich habe keine gute Einzelquelle hierfür, aber du kannst dir dieses Papier ansehen. Mein informeller Eindruck, den ich aus Gesprächen mit Fachleuten gewonnen habe, ist, dass die KI-Spracherkennung dem menschlichen Niveau zumindest recht nahe kommt, wenn sie ihm nicht schon überlegen ist. ↩︎
  7. „Die Gründung des Forschungsfeldes der KI wird gemeinhin im Jahre 1956 in Dartmouth verortet." ↩︎
  8. Es gibt eine offene Debatte darüber, ob die Wirtschaftsdaten der Vergangenheit tatsächlich eine anhaltende Beschleunigung anzeigen, im Gegensatz zu einer Reihe von sehr unterschiedlichen Zeiträumen mit steigenden Wachstumsraten. Ich erörtere hier, wie die Debatte meine Schlussfolgerungen verändern könnte. ↩︎
  9. Modellieren der menschlichen Trajektorie betont, dass das Modell, das diese Zahlen generiert, „nicht flexibel genug ist, um so große und plötzliche Ereignisse wie die industrielle Revolution vollständig zu berücksichtigen". Der Autor fügt hinzu: „Vor allem, weil es die Vergangenheit nur unvollkommen abbildet, sollten seine Projektionen für die Zukunft mit einer gewissen Vorsicht gelesen werden, als ein plausibler Hinweis auf einen wirtschaftlichen Aufschwung im nächsten Jahrhundert. Davidson (2021) ["Could Advanced AI Drive Explosive Economic Growth?"] weist auf eine wichtige Möglichkeit hin, wie die Projektionen noch um viele Jahrzehnte daneben liegen könnten: Während die Dynamik des Modells von einer spiralförmigen wirtschaftlichen Beschleunigung dominiert wird, sind die Menschen nach wie vor ein wichtiger Produktionsfaktor, und wenn überhaupt, hat der Wohlstand dazu geführt, dass die Menschen weniger Kinder haben. In den kommenden Jahrzehnten könnte dies die vorhergesagte Beschleunigung in dem Maße behindern, in dem wir die Arbeiter nicht durch Roboter ersetzen können oder wollen." ↩︎
  10. Diese Kommentare beziehen sich in der Regel eher auf AGI als auf transformative KI, aber die Konzepte sind so ähnlich, dass ich sie hier synonym verwende. ↩︎
  11.  Das heißt in Ermangelung überwältigender Beweise, von denen wir meiner Meinung nach nicht generell erwarten sollten, dass sie immer dann verfügbar sind, wenn sie „benötigt" werden. ↩︎