08. Mai 2023 14:00

Maschinelle Superintelligenz Eintrittswahrscheinlichkeit: Null

Manch ein KI-Forscher hat Angst vor seinem eigenen Schatten

von Robert Grözinger

von Robert Grözinger drucken

Artikelbild
Bildquelle: Shutterstock KI: Eine ernstzunehmende Bedrohung für den Menschen?

Wir werden in nächster Zeit viel über künstliche Intelligenz lesen, lernen und nachdenken müssen, so viel ist klar. Eine Entwicklungsschwelle ist überschritten worden und infolge dessen wird der menschliche Alltag auf der ganzen Welt in Turbulenzen gestürzt, die erwartbar in ihrer Heftigkeit leicht mit jenen mithalten können, die uns tyrannische und kopflose Pandemiezwangsmaßnahmen, Kriegsgeilheit und unlösbare Finanz- und Schuldenkrisen bereits jetzt bescheren. Manche vermuten, dass die Auswirkungen der KI alle anderen gegenwärtigen Krisen in den Schatten stellen werden.

Sicher ist es keine vergeudete Zeit, darüber nachzudenken. In einer Hinsicht dürfen wir aber sehr skeptisch bleiben. Nämlich in Hinblick auf die Vermutung, dass die KI und ihre Entwicklung sich eines Tages verselbständigen könnte und sie sich in eine „Superintelligenz“ verwandelt, woraufhin wir die Kontrolle über sie gänzlich verlieren und sie die Menschheit versklaven oder vernichten könnte. Manche Wissenschaftler und Entwickler, auch Investoren wie Elon Musk, geben hierzu warnende Töne von sich. Kürzlich hat Geoffrey Hinton, ein führender KI-Entwickler, seinen Posten bei Google aufgegeben, um über die Risiken der KI zu sprechen. Er warnt vor Superintelligenz, die die Menschheit auslöschen könnte. Aber wie konkret das geschehen könnte, sagt auch er nicht.   

Ich finde dieses Szenario wenig überzeugend. Denn das würde in der Maschine zwei menschliche Eigenschaften voraussetzen, deren Ursache wir wissenschaftlich selbst kaum im Ansatz verstehen – und vermutlich nie ausreichend verstehen werden, um sie in Maschinen replizieren zu können.

Ich rede von Bewusstsein und der eigenen, zielgerichteten Absicht. Bewusstsein, also die Fähigkeit, der eigenen Existenz und deren Relation zum Rest der Welt gewahr zu sein, ist eine Eigenschaft, die wir bei einigen höherentwickelten Tieren zumindest im Ansatz vermuten können, die aber beim Menschen unvergleichlich intensiver ausgeprägt ist. Woher es kommt, was es verursacht, darüber tappen wir im Wesentlichen im Dunkeln. Wie sollten wir dann einer Maschine ein Bewusstsein einpflanzen können? 

Ein wesentlicher Bestandteil des menschlichen Handelns ist die eigene, zielgerichtete Absicht. „Der handelnde Mensch“, lehrte uns der Grandseigneur der Österreichischen Ökonomie, Ludwig von Mises, „ist bestrebt, einen weniger befriedigenden Zustand durch einen befriedigenderen zu ersetzen.“ Dieses berühmte Axiom ist für uns Menschen unwiderlegbar und somit die Grundlage für das Verständnis aller Aspekte menschlichen Handelns. Aber ursachenforschend jenseits dieser Aussage zu blicken, ist uns so unmöglich wie die Antwort auf die Frage, was vor dem Urknall, also vor dem Beginn der Zeit, geschah. Daher ist uns das Einpflanzen einer maschineneigenen Zielgerichtetheit einer Roboterabsicht nicht nur, wie beim Bewusstsein, „derzeit“ unmöglich, sondern vermutlich für immer.

Was natürlich nicht ausschließt, dass dies unbeabsichtigt geschehen könnte – aus Versehen, nebenbei, per Zufall. Aber wie wahrscheinlich ist das? Vermutlich ungefähr so wahrscheinlich wie die zufällige Entstehung selbstreplizierender DNS-Moleküle, die die Voraussetzung für jegliches uns bekanntes Leben sind. Der Astronom und Mathematiker Fred Hoyle (1915–2001) berechnete, dass die Zeit, die die Erde existiert, bei weitem nicht ausreicht, um die Entstehung des Lebens auf ihr wahrscheinlich zu machen. Weshalb er seine Panspermie-Hypothese propagierte, wonach sich, wie es bei Wikipedia heißt, „einfache Lebensformen über große Distanzen durch das Universum bewegen und so die Anfänge des Lebens auf die Erde brachten.“ Auch die 14 Milliarden Jahre seit dem Urknall reichten nicht aus. Das ist vermutlich die Motivation, die hinter Hoyles anderer, ebenfalls von der Mainstreamwissenschaft abweichenden kosmologischen Theorie steckt, nämlich die vom ewigen „Steady-State“-Universum, das ohne Urknall auskommt.

Die Grundmotivation hinter diesen Theorien ist der Materialismus, also der Glaube, dass sich sämtliche Phänomene im Universum auf messbare Ursache-Wirkungsketten reduzieren lassen. Dieser Glaube bereitete auch dem vor wenigen Jahren verstorbenen Kosmologen Stephen Hawking Schwierigkeiten. In seinem letzten populärwissenschaftlichen Werk, „Kurze Antworten auf große Fragen“, zeigte der sich offen zum Materialismus bekennende Gelehrte, dass die Quantenphysik Leuten wie ihm schier unlösbar erscheinende Probleme bereitet. Die subatomaren Phänomene sind in Ursache-Wirkungskategorien bisher so unerklärbar wie das Bewusstsein und die zielgerichtete Absicht.

Im Hinblick auf die Superintelligenz ist der Punkt hier dieser: Der Materialismus kommt ohne den Zufallsglauben nicht aus. Ohne bewussten Schöpfer ist alles, was wir sehen, zufällig entstanden. Eine dritte Möglichkeit ist logisch ausgeschlossen. Alles sei Zufall, glaubt der Materialist: Selbstverständlich auch das Leben, selbstverständlich auch der Mensch, selbstverständlich auch das Bewusstsein, selbstverständlich auch die zielgerichtete Absicht. Wie genau, wissen wir zwar noch nicht, herauszufinden und wissenschaftlich nachvollziehbar sei das im Prinzip aber alles.

Wenn so etwas wie der Mensch aus purem Zufall entstanden ist, dann kann auch eine Superintelligenz zufällig entstehen. Eine, die mit der Absicht ausgestattet ist, die Erde, das Sonnensystem und das ganze Universum zu beherrschen. Und dann Gnade uns Gott – oder wer auch immer. Hier offenbart sich ein weiterer Wesensbestandteil des Materialismus: Der Glaube, dass nur Macht zählt, nicht Ethik, die, laut dem heute gesellschaftlich tonangebenden und vom Materialismus abgeleiteten Relativismus, nur ein gesellschaftliches Konstrukt ist. Solche Ideen sind logisch konsequent, wenn man nicht an eine bewusste Schöpfung glaubt. Eine Schöpfung, die nicht nur physische, sondern auch ethische Gesetze umfasst. Die nicht nur ethische Handlungsgrenzen, sondern auch physische Erkenntnisgrenzen setzte – siehe Quantenphysik, Bewusstsein und zielgerichtete Absicht. Die diese Grenzen vielleicht genau aus dem Grund setzte, um so etwas wie eine diesseitige Superintelligenz zu verunmöglichen.  

Weil sie nicht an einen bewussten Schöpfer glauben, haben manche KI-Forscher heute Angst vor ihrem eigenen Schatten. Genauer gesagt, vor der Schattenseite ihres materialistischen Glaubens. Wir sollten diese Schreckensszenarien streng von den viel realistischeren Umwälzungen trennen, die uns aufgrund der KI bevorstehen: Deep Fakes, sehr ausgefeilte Betrugsmaschen, der Verlust von hochqualifizierten Arbeitsstellen an die KI, die fortschreitende Verschmelzung virtueller und realer Geschehnisse in den Köpfen unserer Zeitgenossen. Das sind die Dinge, die uns im Hinblick auf die KI beschäftigen sollten. Nicht die Angst vor einem zufälligen Ereignis, dessen Eintrittswahrscheinlichkeit nicht messbar von Null abweicht. 


Sie schätzen diesen Artikel? Die Freiheitsfunken sollen auch in Zukunft frei zugänglich erscheinen und immer heller und breiter sprühen. Die Sichtbarkeit ohne Bezahlschranken ist uns wichtig. Deshalb sind wir auf Ihre Hilfe angewiesen. Freiheit gibt es nicht geschenkt. Bitte unterstützen Sie unsere Arbeit.

PayPal Überweisung Bitcoin und Monero


Kennen Sie schon unseren Newsletter? Hier geht es zur Anmeldung.

Artikel bewerten

Artikel teilen

Kommentare

Die Kommentarfunktion (lesen und schreiben) steht exklusiv nur registrierten Benutzern zur Verfügung.

Wenn Sie bereits ein Benutzerkonto haben, melden Sie sich bitte an. Wenn Sie noch kein Benutzerkonto haben, können Sie sich mit dem Registrierungsformular ein kostenloses Konto erstellen.