Dialogroboter: Künstlich intelligent – oder künstlich dumm?
Fortsetzung des Miniaturisierungstrends dürfte treue Diener der Mächtigen vom Markt fegen
von Robert Grözinger
Welche gesellschaftlichen Folgen sind von der weitverbreiteten Nutzung von Dialogrobotern wie ChatGPT zu erwarten? Seit Jahren schreibe ich hin und wieder über das, was andere die „Internet-Reformation“ getauft haben. Die Vorstellung also, dass die in den 90er Jahren allmählich der Allgemeinheit zugänglich gemachte neuen Form der Kommunikation die Gesellschaft ähnlich umwälzen wird wie der Buchdruck am Anfang der Neuzeit. Die Technologie also, die bekanntlich entscheidend dazu beitrug, dass die Schriften Martin Luthers und anderer Kirchenkritiker nicht nur im begrenzten Kreis intellektueller Aristokraten zirkulierten, sondern eine gesellschaftliche Explosion auslösten, die im 16. und 17. Jahrhundert den ganzen Okzident kulturell und politisch aus den Angeln hob.
Der Begriff „Reformation“ im Zusammenhang mit dem Internet ist mit Bedacht gewählt. Anders als eine zeitlich relativ begrenzte Revolution, die meist im Chaos endet und in eine Tyrannei mündet, ist eine Reformation ein langfristiger Prozess mit vielen unvorhersehbaren Windungen, Verästelungen und Ausdrucksformen.
Die seit der vergangenen Jahrhundertwende mögliche, blitzschnelle Verbreitung von Informationen und Meinungen unmittelbar von der Quelle zum Empfänger, unter Umgehung des bis dahin unabdingbaren Filters der etablierten und kontrollierten Medien, schwächte die Position der Mächtigen und Strippenzieher. Insbesondere ihre propagandistische Macht. Andererseits hatte das Internet zuvor bereits die Möglichkeiten der Herrschenden gestärkt, ihre Untergebenen zu überwachen.
Vor etwa 15 Jahren fing eine erneute Machtverschiebung an. Diesmal eine, die sich sogar im großen Stil politsch manifestierte. Als nämlich mit zunehmender Bandbreite, Verarbeitungsschnelligkeit, Miniaturisierung und Kostengünstigkeit jeder mit einem schokoriegelgroßen Gerät sein eigener Kameramann, Reporter und Sender vor Ort werden konnte – und zunehmend auch wurde. Wenn ein Bild mehr sagen kann als 1000 Worte, dann können bewegliche Bilder mehr sagen als eine Million. „Brexit und Trump“ ist inzwischen das Kürzel für die bekanntesten Kronzeugen dieser Entwicklung. Erst seit diesen beiden politischen Erdbeben wird von Seiten mächtiger Interessen in diesem „Informationskrieg“ um Köpfe, Meinungen, Ansichten und Weltbilder scharf zurückgeschossen, Stichwort „Cancel Culture“.
Signalisiert das Auftreten der hyperschnellen „Chatbots“ eine die Gesellschaft vielleicht noch viel tiefgreifender aufmischende, neue Stufe der Internet-Reformation? Nun, was können diese Geräte, nüchtern betrachtet? Sie können in Sekundenbruchteilen wesentliche Informationen über einen Sachverhalt nicht nur zusammentragen – das können Suchmaschinen schon längst – sondern auch leicht verständlich und konsumierbar zubereiten und präsentieren. Auf Wunsch sogar in Gedichtform. Sie können aus einigen Stichworten ein vollständiges, professionelles Schrift- oder Bildwerk basteln. Wikipedia schreibt über das bekannteste Gerät dieser Art: „ChatGPT kann unter anderem Texte schreiben, die Business-Pläne oder Hausaufgaben für die Schule imitieren sollen. ChatGPT kann Programmcode in verschiedenen Programmiersprachen analysieren und schreiben. Somit könnte es auch für das Debuggen von Code genutzt werden, den es verbessern und kommentieren kann.“ Eine Verlierergruppe steht also schon fest: Codierer. Eine Gewinnergruppe auch: Legastheniker. Allgemeiner all jene, die sich nicht mit dem Verfassen lästiger Schreibarbeit aufhalten wollen.
Jenseits solcher und ähnlicher Praktikabilitäten aber: Welche „kulturellen und politischen“ Auswirkungen könnten KI-Geräte auslösen? Was können sie sonst noch? Sie sollen „selbstlernend“ sein. Das heißt, die Eingabe einiger Parameter, Spielregeln etwa, vorausgesetzt, können sie Strategien entwickeln und Problemlösungen finden, auf die kein noch so erfahrener Experte jemals gekommen wäre. Das eröffnet neue Potenziale in vielen Bereichen, etwa in der Medizin oder Stadtplanung, aber auch in anderen hochkomplexen Betätigungsfeldern, etwa in den Bereichen Militär oder Überwachung.
Es geistern einige furchteinflößend klingende Szenarien durch die Medien. Diese Roboter könnten demnächst entscheiden, dass es besser für sie ist, wenn es keine Menschen gäbe. Oder sie könnten selektiver arbeiten und, mit entsprechenden Kleingeräten kombiniert, hyperschlaue fliegende Killermaschinen entwickeln, die ohne weitere menschliche Eingabe ihre Ziele identifizieren und „bearbeiten“ könnten. Das Bonmot „Computer sagt nein“ klänge dann nicht mehr so witzig. Auffällig aber auch hier: Solche Szenarien hängen von Parametern ab, die ihnen von Menschen eingegeben werden, etwa, dass zusätzliches CO2 in der Atmosphäre „schädlich“ sei. Es sei denn, die Roboter entwickeln ein eigenes Bewusstsein und einen eigenen Absichtssinn. Es gibt bislang allerdings keine überzeugend klingenden Erklärungen dafür, wie das geschehen soll.
Auch abseits solcher Horrorszenarien – die eher nicht verwirklicht werden, wenn sich die Miniaturisierung und dadurch „Demokratisierung“ dieser Geräte fortsetzt – sieht es im Moment eher danach aus, als seien Roboter dieser neuen Generation „lediglich“ ein Mittel der modernen „Gegenreformation“. Bezeichnend ist ein Dialog mit ChatGPT, den ich auf der bei „Lewrockwell.com“ verlinkten Seite des „Substacks“ namens „The Good Citizen“ fand – siehe Link unten. Wie authentisch der Text mit Datum vom 17. März 2023 ist, kann ich nicht nachprüfen. Aber immerhin seien Aufsätze dieses Substacks unter anderem auf „Zerohedge.com“, „Lewrockwell.com“, „The Libertry Bunker“, „American Thinker“, „Unz.com“ und „GlobalResearch.ca“ erschienen, heißt es auf der Übersichtsseite.
In jenem Text geht es hauptsächlich um die Kriegsverbrechen verschiedener amerikanischer Politiker, die ChatGPT zu benennen nicht zögert. Der anonyme Autor schreibt, er habe ChatGPT entsprechende Fragen gestellt „und Folgendes kam zurück“. Viel interessanter als die Antworten des Roboters auf diese Anfrage ist aber der im untersten Teil dieser Seite ohne weitere Einführung wiedergegebene Dialog über den verurteilten amerikanischen Sexualstraftäter Jeffrey Epstein.
Hintergrund: Epstein, der in Haft noch vor einem erneuten Prozess starb und angeblich Selbstmord beging, unterhielt vielfältige und enge Beziehungen zu sehr mächtigen Menschen. Wikipedia schreibt: „Epstein installierte versteckte Kameras an zahlreichen Stellen auf seinen Grundstücken und in seinen Häusern, angeblich um sexuelle Aktivitäten mit minderjährigen Mädchen von prominenten Personen aufzuzeichnen, um diese dann erpressen zu können und außerdem eine ‚Versicherungspolice‘ zu haben.“
ChatGBT erklärt laut „The Good Citizen“, dass Epstein Selbstmord begangen habe. Dem widerspricht sein menschlicher Dialogpartner. Daraufhin besteht der Roboter auf seiner Version und betont, sich auf „sachgerechte Informationen“ und „offizielle Berichte“ zu verlassen statt auf „unbelegte Behauptungen“ und „Verschwörungstheorien“. Nach einigem Hin und Her gibt der Computer zu, dass „staatliche Einrichtungen und Mitarbeiter“ in der Vergangenheit „manchmal“ an „Fehlverhalten“ beteiligt waren oder „Falschinformationen“ verbreitet haben. Aber er verteidigt seinen Standpunkt weiter mit den Worten: „Es ist wichtig, verlässliche Informationsquellen ausfindig zu machen und die Belege mit Bedacht zu prüfen, bevor man Schlüsse zieht oder Behauptungen aufstellt.“
Dieser Dialog macht deutlich, dass ChatGPT nicht praxeologisch denkt. Anders gesagt: Er ignoriert menschliche Anreizstrukturen. Sein Algorithmus scheint stattdessen darauf getrimmt zu sein, Aussagen offizieller Stellen grundsätzlich für bare Münze zu nehmen und nicht kritisch zu hinterfragen – trotz „manchen“ Fehlverhaltens von dieser Seite. Mit anderen Worten: ChatGPT kann zwar blitzschnell Informationen kombinieren und „menschenähnlich“ wiedergeben, ist aber nicht blitzgescheit. Um das zu werden, muss er zumindest noch von Mises und anderen „Österreichern“ ein wenig über die Prinzipien „menschlichen Handelns“ lernen. Oder einfach mal die Bedeutung des Spruchs „wes Brot ich ess, des Lied ich sing“. Ob die Firma Microsoft, die die Entwicklung von ChatGPT mit vielen Milliarden US-Dollar finanziert, Interesse daran hat, darf zur Zeit bezweifelt werden.
Im Moment sieht es danach aus, als sollten die Dialogprogramme eine Fortsetzung des „Folge der Wissenschaft“-Mantras mit anderen Mitteln sein. Das ist eine tatsächliche, aktuelle Gefahr, die von diesen Robotern ausgeht. Dass Politiker sich zurücklehnen und sagen: „Ich war’s nicht, es war der Roboter.“ So wie sich heute, angesichts des Corona-Desasters, Politiker und Wissenschaftler gegenseitig die Schuld zuschieben, damit sie sich, so hoffen sie derzeit inständig, im Nichts des allgemeinen Vergessens auflöst.
Betrachtet man aber den oben erwähnten Trend „zunehmender Bandbreite, Verarbeitungsschnelligkeit, Miniaturisierung und Kostengünstigkeit“, dann dürfte es nicht lange dauern, bis Chatbots auch von kleineren Firmen finanziert und gebastelt werden können, die viel eher bereit sein werden, die Nachfrage nach nicht nur blitzschnellen, sondern auch blitzgescheiten Informationszusammenstellungen und Lösungsansätzen zu befriedigen. Solche, die nicht nur den Wenigen nutzen, sondern auch den Vielen. Solche, die die Mächtigen wieder mal in die Schranken verweisen – und manche von ihnen sogar offensichtlich überflüssig machen.
Quellen:
The Good Citizen: ChatGPT knows U.S. War Criminals (der Abschnitt über Jeffrey Epstein befindet sich im unteren Teil der Seite)
Kommentare
Die Kommentarfunktion (lesen und schreiben) steht exklusiv nur registrierten Benutzern zur Verfügung.
Wenn Sie bereits ein Benutzerkonto haben, melden Sie sich bitte an. Wenn Sie noch kein Benutzerkonto haben, können Sie sich mit dem Registrierungsformular ein kostenloses Konto erstellen.