Amuse guelle: Von stoachastischen Papageien
I am a stochastic parrot and so r u – das meint eine Entität, die auf Wahrscheinlichkeit beruhend Sequenzen sprachlicher Formen aneinanderreiht. Eine Instanz die Text zusammenfügt, ohne die Bedeutung der einzelnen Symbole, Worte oder Satzteile zu erfassen. Also ein Wesen, das sich ohne Intention, Ziel oder Bewusstsein für die Konsequenzen des eigenen Handelns in der Welt bewegt. Eine Einheit in propabilistischer Isolation. Die stochastische Beziehungslosigkeit, die Sam Altman, der CEO von OpenAI, in diesem viralen Tweet sich selbst und der Menschheit unterstellt, mag vielleicht auf die algorithmischen Prozesse der Large Language Models zutreffen, die Firmen wie OpenAI der Menschheit geschenkt haben; wird dem Denken, Fühlen, Schaffen und Wachsen von lebenden Organismen allerdings nicht gerecht.

Prompt: Amuse guelle
Negative Prompt: –––––
Leser:innen führen sich diesen Text nicht zu Gemüte, damit er Teil ihres Training Data Sets werde und sie durch den Konsum desselben die Chancen erhöhen, zusammenhängende Aussagen zu formulieren. Texte werden nicht konsumiert, kartografiert, seziert und abgespeichert. Sie werden (von Menschen) auch nicht auf Grundlage oder Berechnung von Wahrscheinlichkeiten geschrieben. Menschen schreiben Texte in der Regel mit einer Intention, einem Ziel oder einer Agenda. Zumeist sind Menschen sich der Auswirkungen, die ihr Schaffen auf die sie umgebende Welt hat, bewusst. Ihnen diese Fähigkeiten abzusprechen, infantilisiert und reduziert sie zu Konsumenten und Fabrikanten bedeutungsloser Text- beziehungsweise Handlungshaufen, deren Wollen, Streben und Handlungsmöglichkeiten nicht von Bedeutung sind.
Kalte Vorspeise: Kreativität, die es nicht gibt

foodporn low angle
Negative prompt: tacky
Die reduktionistische und antihumanistische Weltanschauung, die der oben zitierten Aussage Sam Altmans zu Grunde liegt, lässt sich am Beispiel einer weiteren Verlautbarung des Investors, Entrepreneurs und Programmierers Altman herausarbeiten:
everything ‚creative‘ is a remix of things that happened in the past, plus epsilon and times the quality of the feedback loop and the number of iterations. people think they should maximize epsilon but the trick is to maximize the other two.
Hier wird postuliert, dass die Vermengung schon bestehender Objekte und/oder Gedanken und die Qualität und Quantität der Wiederholung dieses Vermengungsprozesses für einen kreativen Prozess wichtiger seien als das, was Altman mysteriös als „epsilon“ bezeichnet. Epsilon soll hier wohl für den kreativen Funken, den Kuss der Muse oder die zündende Idee stehen. Diese scheinen für Altman so irrelevant für den kreativen Prozess zu sein, wie der Geruch von Wald oder das Tosen einer sich brechenden Welle für die immer weiterwachsenden Large Language Models.
Diese Reduktion des kreativen Prozesses lässt tief blicken. Sie offenbart zum einen ein reduktionistisches Verständnis von Kreativität und zum anderen eine Geringschätzung des Lebens an sich. Um diese eiskalte Vorspeise geschmacklich zu durchdringen, gilt es nun im Folgenden zu versuchen den intellektuellen Raum zu erkunden in dem sich unser Protagonist bewegt. Werfen wir also einen Blick in die epistemische Küche des Silicon Valley.
Fischgericht: Longtermism
Nach diesen Vorspeisen werden weitere Gänge gereicht, die das epistemische Mahl komplettieren. Als erstes Hauptgericht serviert man den Longtermism. Der Longtermismus ist eine Philosophie, Denkschule oder Ideologie, die auf dem Utilitarismus und dem Effective Altruism fußt. Im Rahmen des Longtermism wird postuliert, dass die Menschheit für weitere hundert Millionen, wenn nicht Milliarden Jahre existieren wird. In diesem Zeitraum werde die Zahl der Menschen in astronomische Höhen schießen. Es sei die Pflicht der jetzt lebenden Menschen das Glück der zukünftigen Generationen zu gewährleisten. Dies täte man am effektivsten, indem man durch die Entwicklung künstlicher Intelligenz die Kolonisation unserer und anderer Galaxien ermögliche.
Denn durch die Kolonisation wäre es möglich, so Nick Bostrom, einer der Vordenker des Longtermism, dass die Zahl der lebenden Menschen auf 1027-38 anstiege. Diese wären dann digital und glücklich, eine verbesserte Menschheit: heute lebenden Menschen weit überlegene Transhumans. Ihre bloße Zahl und das so aggregierte Glück überträfen bei Weitem das Aggregat des Wohlbefindens was im Hier und Jetzt erreicht werden könne, wie Nicholas Beckstead, ein weiterer einflussreicher Longtermist, in seiner 2013 veröffentlichten Dissertation ausführt. Daraus ergebe sich, dass einzig Investitionen in künstliche Intelligenz und Space Travel für die Zukunft (der Menschheit) relevant seien. Diese „Philosophie“ wird in Instituten wie dem Future of Life Institut, dem Future of Humanity Institute in Oxford, oder dem Global Priorities Institute entwickelt und bis in die Vereinte Welt getragen.

Negative prompt: –––––
Die von einigen Longtermisten proklamierte süße Utopie der Besiedelung des Weltraums wird geschmacklich ausbalanciert durch die bittere Note einer Dystopie, in welcher die Künstliche Intelligenz die Menschheit vernichtet. Dieser Zwist unter den Longtermisten lässt sich an der Auseinandersetzung zwischen Ray Kurzweil and Eliezer Yudkowsky nachvollziehen. Während Ray Kurzweil – übrigens langjähriger Chefingenieur bei Google – daran glaubt, dass wir im Jahr 2045 (oder doch schon 2030?) eine Singularität, also das Verschmelzen von Mensch und Maschine und die damit einhergehende Unsterblichkeit des Menschen erreicht haben werden, forderte Yudkoswky vor kurzem in einem Op-Ed Artikel im Time Magazine, dass alle AI-Entwicklungszentren durch Atomschläge eliminiert werden sollten, um die unausweichliche Auslöschung der Menschheit durch Artificial Intelligence zu verhindern.
Diese beiden Extrempositionen finden sich zugegebener Maßen an den äußeren Rändern der Palette, mit der das erste Hauptgericht gewürzt wird. In ihrer Polarität verdeutlichen sie allerdings Grenzen des gedanklichen Spektrums, in dem die Verfechter des Longtermism fischen.
Sorbet: Zukunft ohne Menschen

low angle arousing
Negative Prompt: focus tacky
Die dem ganzen Menü inhärente Ignoranz und Geringschätzung dem organischen Leben, den Menschen und der Gegenwart gegenüber, erfreut sich in den letzten Jahren einer immer größer werdenden Popularität. Intellektuelle wie Yuval Noah Harari behaupten, dass schon bald eine nutzlose Klasse an Menschen entstehen werde, da die KI die Weltherrschaft übernehmen werde. Auch die Kolonisation des Weltalls müsse nicht zwingend von oder mit Menschen stattfinden, so Nick Bostrom. Das Glück der digitalen Menschen, die das All besiedeln würden, würde im Aggregat noch immer das Glück der jetzt lebenden Menschen übertreffen. Zum Glück der Menschheit braucht es also keine Menschen.
Oder zumindest nicht viele, denn es schon eine geringe Zahl an Menschen wäre ausreichend, um nach dem Kollaps der Welt wie wir sie kennen, eine neue Zivilisation aufzubauen, die dann wieder nach den Sternen greifen könnte. Die Chance einiger weniger Menschen eine Krise zu überleben, ist im Longtermismus das entscheidende Kriterium dafür, wie intensiv man sich der Bekämpfung dieser Krise widmen sollte. Da der Klimawandel nicht das Potenzial in sich trage die gesamte Menschheit auszulöschen, erscheint es nicht so drängend etwas gegen diesen zu unternehmen. In seinem kürzlich erschienen Bestseller What we owe the future postuliert William McAskill gar, dass es vernünftig sei eine gewisse Menge fossiler Energieträger in der Erde zu belassen, nur damit diese für den Aufbau neuer Zivilisation nach einer potentiellen Katastrophe genutzt werden könnten.
Hauptgang (ohne) Fleisch: Eschatologie des Digitalen

Negative prompt: meat
Die halbgare Apotheose der Technologie im Allgemeinen und der künstlichen Intelligenz im Besonderen, die in diesem Gang serviert wird, hat es in sich. Sie speist sich aus der Hoffnung den Tod zu überwinden, einer heilsbringenden Erzählung von einer himmelsgleichen Utopie und deren Gegenpol, der absoluten Katastrophe. Das Potenzial zum absoluten schlummert in der allwissenden und allmächtigen Künstlichen Intelligenz, die in der Church of Turing verehrt wird. Der ungeteilte Glaube an den technischen Fortschritt und die Überzeugung, dass dieser die Welt retten wird, der Glaube an die absolute Macht der KI und die damit einhergehende Vergötterung von Technologie läuft in der Epistemologie des Silicon Valleys zu einer pseudo- oder parareligiösen Verehrung alles Technischen zusammen.
Die daraus erwachsende Eschatologie – auf Glauben beruhende Projektion für das Ende der Menschheit – haben wir schon beim Fischgericht vorkosten dürfen; man erinnere sich an die Auseinandersetzung zwischen Ray Kurzweil und Eliezer Yudkowsky. Dem endlosen Leben in Glückseligkeit in den Wolken wird eine Apokalypse gegenübergestellt; ein Schelm wer hier an Himmel, Hölle oder gar das letzte Buch der Bibel denken muss.
Die Gefahren, die dieser endzeitlichen Perspektive innewohnen, hat Elke Schwarz präzise herausgearbeitet. Diese Eschatologie führt zu einer Verengung und Verschiebung des Diskurses um Künstliche Intelligenz. Die Effekte, die deren Entwicklung auf die Umwelt, die Menschen, die diese möglich machen, und die Gesellschaft im Hier und Jetzt haben, werden ausgeblendet, während sich populäre Intellektuelle in endlosen Debatten um möglichen Auswirkungen in (ferner) Zukunft ergötzen. Was im hier und jetzt getan werden müsste, um zum Beispiel den Klimawandel zu bekämpfen oder das Leid von Menschen im globalen Süden zu beenden, fällt bei diesen futurologischen Debatten zumeist leider unter den Tisch.
Die diesem Endzeitglauben zu Grunde liegenden Utopie entpuppt sich bei näherer Betrachtung außerdem als eine Zukunftsvision, die nur für wenige, sehr wohlhabende Menschen utopisch ist und den Rest der Menschheit mit Brotkrumen abspeist. Es ist eine Utopie, die das Bestehende nicht über Bord wirft, sondern dieses lediglich auf digitale Steroide setzt. So werden reale Ungleichheiten und Vorurteile durch die künstliche Intelligenz weiter bestärkt und die Werte und Funktionsweisen des Kapitalismus in dieser zementiert. Das dies denjenigen schmeckt, die vom bestehenden System und dessen Digitalisierung am stärksten profitieren, ist nicht verwunderlich.
Der Käse: Eugenik

Negative prompt: orderly
Stanford – die Universität, die der Legende nach so viele der führenden CEOs des Silicon Valley frühzeitig verlassen haben, war seit jeher eine Hochburg eugenischer Theorien. Ihr erster Präsident David Starr Jordan war ein glühender Verfechter der Eugenik und scharrte viele Glaubensgenossen um sich, eine Tradition, die erst 1975 zu Ende kam, als William Shockley in Rente ging. Doch mit der Emeritierung des Erfinders des Transistors verschwand die menschenverachtende Ideologie leider weder aus Stanford noch aus dem Silicon Valley.
Timnit Gebru hat herausgearbeitet, dass rassistisches, ableistisches und eugenisches Gedankengut dem Longtermism zu Grunde liegt und das Denken des Silicon Valleys maßgeblich prägt. So argumentiert Nick Bostrom in einer privaten, geleakten E-mail , dass Menschen mit schwarzer Hautfarbe eine geringere intellektuelle Kapazität hätten als Menschen mit weißer Hautfarbe. Nicholas Beckstead trifft in seiner Dissertation den Nagel auf den eugenischen Kopf:
“Saving lives in poor countries may have significantly smaller ripple effects than saving and improving lives in rich countries […] It now seems more plausible to me that saving a life in a rich country is substantially more important than saving a life in a poor country, other things being equal.“
Der Fakt, dass in „armen Ländern“ zumeist Menschen mit „dunkler“ Hautfarbe leben wird hier zwar nicht explizit gemacht, schwingt aber implizit mit. Im Valley laben sich währenddessen CEOs wie Elon Musk oder Peter Thiel an ähnlichen epistemischen Leckereien und fabulieren mehr oder weniger offen über die Verbesserung der menschlichen Rasse durch den Einsatz von künstlicher Intelligenz und Technologie.
Kaffee: mit Sam Altman

Negative prompt: orderly
Wie viele Shots Espresso benötigt der Posterboy des Silicon Valley´ und der KI-Industrie um diese Mahlzeit zu verdauen? Sam Altman gibt zwar an, sich nicht als Longtermist zu verstehen, lobt allerdings auf seinem Blog ein Buch von Nick Bostrom und reproduziert die Denkmuster des Longtermismus. Hier soll dennoch nicht suggeriert werden, dass Sam Altman ein radikaler Longtermist sei, dem es nur darauf ankomme möglichst schnell den Mars zu besiedeln. Vielmehr geht es darum aufzuzeigen, wie das longtermistische Dispositiv das Denken und Handeln derer prägt, die im Silicon Valley das Sagen haben. Unabhängig davon, ob sie sich zu diesem bekennen, oder nicht.
Die Verbreitung des longtermistischen Gedankenguts lässt sich unter anderem daran erkennen, dass es Menschen zu eigen ist, deren politische Affilationen und Überzeugungen ansonsten nicht weiter voneinander entfernt sein könnten. Von philanthropischen Demokraten wie Bill Gates über libertäre Investoren wie Peter Thiel bis hin zu Elon Musk, – dieser fördert die Strömung übrigens finanziell – das Spektrum derer die dem Longtermismus zumindest wohlwollend gegenüberstehen ist weit und scheint nicht durch sonstige ideologische Grenzen beschränkt zu werden.
Auch Sam Altman labt sich an den epistemischen Leckerbissen, die im Silicon Valley gereicht werden und knüpft an das longtermistische Dispositiv an. Diesem Dispositiv wohnt rassistisches und eugenisches Gedankengut inne. Außerdem befördert es die Reduktion und Infantilisierung der Menschen durch eine para-religiöse Vergötterung alles Technischen. Aus diesem Dispositiv erwachsen auch die Zukunftsvisionen, die das Handeln derer prägen, die viele Mittel zur Gestaltung von Welt besitzen – ganz unabhängig von ihrer konkreten Realisierbarkeit. In der hier dargelegten mensch- und naturvergessenen Ideologie liegt der epistemische Keim für eine Gesellschaft, die für einige Wenige fantastisch, für den Planeten und das Gros der Menschheit jedoch fatal wären.
Louis Voelkel