Nick Bostrom: Superintelligenz

Ein anstrengendes, sonderbares, manchmal kluges, dann wieder abstrus anmutendes Buch über die Zukunft der künstlichen Intelligenz. Wobei ich festhalten will, dass es sich hier – auch wenn manche Thesen abenteuerlich anmuten und viele Erwägungen wie SF klingen – um einen Autor handelt, der weiß, wovon er schreibt, keinen Schreiberling (wie etwa hier), der schnell des Geldes wegen seine Halb- und Viertelkenntnisse in Buchform gießt und damit ein wenig Geld zu verdienen hofft. Bostrom ist kompetent, ist gebildet und klug – und gerade dadurch erscheinen auch die abenteuerlichsten Gedankengänge irgendwie plausibel, man spürt, dass hinter all dem durchdachte Überlegungen stecken, die allerdings oft in Spekulationen ausarten.

Bostrom ist überzeugt, dass eine Superintelligenz (eine Intelligenz, die das menschliche Maß um ein Vielfaches übersteigt) nur eine Frage der Zeit ist (und setzt selbst einen Zeitrahmen von etwa 20 bis 70 Jahre an). Der Grund für diese Annahme liegt in Selbstverbesserungsmechanismen, in Rückkoppelungen, mit denen eine solche KI ausgestattet wird: Sodass ab einem kritischen Zeitpunkt der Entwicklung die Fortschritte einer geometrischen Progression folgen. Das ist durchaus plausibel: Aufgrund dieser Möglichkeiten der rekursiven Selbstverbesserung sollte ab einem bestimmten (allerdings nur schwer bestimmbaren) Niveau eine explosionsartige Entwicklung einsetzen.

Bostrom erläutert dabei ausführlich die verschiedenen Arten von KI: Schnelle, kollektive, qualitative Superintelligenzen, Gehirnemulationen, rein maschinell-digitale Intelligenzen oder auch eine Kombination aus beidem. Vor allem aber ist ihm darum zu tun, die Gefahren einer solchen Superintelligenz bzw. eines “Takeoffs” zu erläutern (bzw. der Sicherheitsvorkehrungen, die eine solche Beherrschung zu verhindern imstande sind). Vor allem die Schnelligkeit der Machtübernahme eines solchen “Singleton” birgt für Bostrom unübersehbare Risiken, wobei er ausführlich auf die Täuschungsmöglichkeiten einer solchen Superintelligenz eingeht und verschiedene Szenarien durchspielt (die dann oft in die erwähnte SF abgleiten): Wie kann man die Superintelligenz dem Menschen dienstbar machen, was würde sie wann durchschauen und wie könnten wir das Spiel “ich weiß, dass du weißt, dass ich weiß usf.” zu unseren Gunsten entscheiden. Dabei ist es vor allem problematisch, dass Bostrom dieser Superintelligenz häufig anthropomorphe Beweggründe unterstellt: Ich zweifle, ob Superintelligenzen (deren Tun eigentlich per defintionem dem Homo sapiens unzugänglich und nicht nachvollziehbar erscheinen müsste) mit solchen Maßstäben gemessen werden kann. Trotzdem sind diese intellektuellen Spielereien eine überaus faszinierende Lektüre – ob es nun um moralisch-ethische Probleme von Maschinenintelligenz geht oder die präsumptiven Strategien einer solchen. Realistisch mutet das alles nicht an, was allerdings nichts bedeuten muss: Unser Vorstellungsvermögen muss zwangsläufig in vielen Bereichen an Grenzen stoßen – vor allem dort, wo wir es mit einem weit überlegenen “Geist” zu tun haben.

Gerade hierin scheint mir übrigens ein Hauptproblem dieser ganzen Überlegungen zu liegen: Bostrom beschränkt sich auf die reine Intelligenz. Wir haben diesbezüglich nur menschliche Vergleichsmöglichkeiten und müssen diesen unseren Geist immer (in seiner Entwicklung, in seinen Reaktionen) auf unseren Körper beziehen. Unser Gehirn ist keine Denkmaschine, sondern ein Organ, dass uns (als materielle Entität) das Überleben ermöglichen soll. All unsere Fähigkeiten sind zu einem Gutteil von unserer körperlichen Ausstattung abhängig und all das, was man als menschliche Ziele (Werte, Bestimmungen etc.) bezeichnen kann, hat mit unserer Selbsterhaltung und Vermehrung zu tun. Es gibt keinen Homunculus in unserem Gehirn, keinen großen Dirigenten, der über seinen Körper herrscht und ihm Befehle erteilt, sondern einen evolutionär entwickelten Überlebensdrang, der sich vor allem auf diesen unseren Körper bezieht und dem unser Gehirn untergeordnet ist. Eine solche Evolution würde eine Superintelligenz (wenn es sich nicht um eine Art Gehirnemulation handeln würde, die aber dann nur bestimmte Teile emulieren könnte) nicht durchlaufen, weshalb über intrinsische Ziele einer solchen (sofern sie nicht von uns einprogrammiert werden, wobei sich selbstverständlich die Frage aufdrängt, ob eine Intelligenz sich über diese von uns vorgegebenen Werte nicht hinwegsetzen würde) kaum eine vernünftige Aussage gemacht werden kann. Deshalb sind viele der getätigten Aussagen zwar bedenkenswert und interessant, aber wohl kaum logisch stringent: Als ideales Zielpublikum des Buches erscheinen mir deshalb SF-Autoren. Und manches mutet dann offenkundig lächerlich an: Etwa eine Formalisierung des Erlernens von Werten für Superintelligenzen, bei der die oft schon obskuren Annahmen in einen mathematischen Formalismus gegossen werden (und mich hindert jetzt nur die Mühsal der Darstellung mathematischer Sonderzeichen an einer Demonstration dieser Werterlernungsformel).

Ein anderer Kritikpunkt (wieder einmal) ist jener der ausufernden Endnoten: Ein Viertel des Buchumfangs entfällt auf diese. Dazu eine andere Unart: Die Darstellung von Wichtigem, Interessantem in einem “Kasten”: Das erinnert mich allzusehr an Schulbücher – und beides stört den Lesefluss ungemein. Die Ursache dafür liegt zumeist schlicht in der Bequemlichkeit: So kann man alle vermeintlich klugen Gedanken im Buch unterbringen und muss sich nicht der Mühe unterziehen, diese in den Text zu integrieren. In diesem Buch war das so störend wie nur selten: Trotzdem lohnt sich die Lektüre (obschon man dazu wohl ein KI-Aficionado (um einen Sandhoferschen Ausdruck zu gebrauchen) sein muss).


Nick Bostrom: Superintelligenz. Szenarien einer kommenden Revolution. Frankfurt a. M.: Suhrkamp 2014.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.