benedikt-war-unser-marc-aurelBenedikt war unser Marc Aurel
wie-jerusalem-den-kampf-gegen-die-hegemonialmacht-vorbereitet-–-10Wie Jerusalem den Kampf gegen die Hegemonialmacht vorbereitet – 10
keine-angst-vor-kuenstlicher-intelligenz-(ki)

Keine Angst vor Künstlicher Intelligenz (KI)

Published On: 16. April 2023 18:14

Nach der Physik („Energiewende“) steht nun die Mathematik („Künstliche Intelligenz“) auf der Abschussliste von Politikern, die Angst vor Algorithmen haben. Woher diese Furcht kommt, bleibt unklar. Künstliche Intelligenzen haben ihnen das nicht erläutert, denn die erklären überhaupt nichts.

Nur Menschen erschaffen effektive Erklärungen. Keine andere bekannte Lebensform ist dazu in der Lage. Unablässig sucht unser Gehirn nach Mechanismen, die sich zur Erläuterung des beobachteten Geschehens eignen. Und gelangt dabei zu Resultaten, die von abstrakten wissenschaftlichen Thesen bis hin zu Annahmen über den Hintergrund alltäglicher Gespräche reichen. Solche Modellvorstellungen gestatten uns ein Verständnis jenseits der Oberflächlichkeit reiner Sinneswahrnehmungen und ermöglichen langfristig planendes Vorgehen statt lediglich instinktiver Aktion. Als „effektiv“ sind Erklärungen mit einer über den konkreten Anlass hinausweisenden Wirkung anzusehen, die zusätzlich neue Optionen öffnen oder nicht berücksichtigte, mitunter noch nicht einmal registrierbare Phänomene ebenfalls umfassen. Ob wirklich stimmt, was wir uns jeweils zusammenreimen, ist dabei völlig unerheblich. Lediglich die Anwendbarkeit einer Hypothese zählt, ihre Zweckmäßigkeit hinsichtlich des angestrebten Ziels und der auf ihrer Grundlage errungene Erfolg. Selbst Irrtümer können zu positiven Ergebnissen führen und daher jede Widerlegung überdauern. Newton lag falsch, dennoch nutzen wir seine Physik noch immer.

„Weltrevolution zum Tippen nah“

Allein der Mensch entwickelt beschreibende Theorien für natürliche Prozesse ebenso, wie für seine eigenen Handlungen in politischen, gesellschaftlichen und ökonomischen Kontexten. Mathematik und Musik, Sprache und bildende Kunst sind Kanäle, über die wir solche Ideen mit anderen teilen. Und in aufgeklärten Umgebungen, die eine Tradition der kritischen Wissensvermehrung und den freien Austausch der Gedanken pflegen, gedeiht nicht nur eine Erklärungskultur, sondern damit zusammenhängend auch die menschliche Gemeinschaft insgesamt.

Doch ist das Erklären selbst bislang unerklärt. Wir haben keine Ahnung, wie wir das eigentlich anstellen und warum nur wir das vermögen. Als nicht hilfreich erweist sich insbesondere der Ansatz, der Antwort auf diese Frage durch die Erstellung fortgeschrittener Software näherzukommen. Künstliche Intelligenzen (KI) lehren uns lediglich, wie wenig das Generieren von Erklärungen mit messbarer Intelligenz zusammenhängt.

Zweifellos verfügen KI über außergewöhnliche, den Menschen bereits in vielen Zusammenhängen übertreffende Fähigkeiten. Da ihr Können mit prinzipiell nicht limitierten Parametern wie der Rechengeschwindigkeit, der Datenverarbeitungskapazität und dem Vorhandensein verarbeitbarer Daten steigt, werden sie uns schon bald grundsätzlich überrunden. Alles andere wäre auch überraschend, also in neuer Weise erklärungsbedürftig, würde es doch auf eine prinzipielle Begrenzung unserer bislang universell erscheinenden Schöpfungskraft hinweisen. Menschgemachte Algorithmen für das logische Deduzieren, das plausible, also probabilistische Schätzen oder das evolutionäre Optimieren dienen ja genau der exemplarischen Nachbildung biochemisch begründeter kalkulatorischer Fertigkeiten auf digitalen Rechenmaschinen. Ihre Potenz belegt einmal mehr die menschliche Brillanz in der Konstruktion ihm überlegener Apparate. ChatGPT und andere derzeit vieldiskutierte Systeme, die man vielleicht treffender als „SI“, als „Simulierte Intelligenzen“ bezeichnen sollte, stellen daher einen Grund zum Feiern dar. Anlass zu Befürchtungen bieten sie gerade nicht.

Denn Computer können nur addieren. Das allerdings rasend schnell und fehlerfrei. Es ist menschliches Genie, das Wege gefunden hat, zahlreiche intellektuelle Tätigkeiten in Rechenwegen abzubilden, die auf dem Fundament fortgesetzter Additionen ruhen. Herausforderungen, die ein vorgegebenes Ziel über die Wahl einer geeigneten Entscheidungskette aus einer zwar großen, aber begrenzten Zahl an Varianten erreichen, lassen sich schon seit geraumer Zeit mit brutaler Rechenkraft („brute force“) beherrschen. Beim Schach kann nicht verlieren, wer alle denkbaren Zugfolgen präzise in hinreichend kurzer Zeit durchgeht, um das optimale Vorgehen zu finden. Schon 1997 hatte der damalige Weltmeister Garri Kasparow gegen den auf diese Weise agierenden Supercomputer Deep Blue keine Gewinnchance mehr. Ein höchst unfairer Vergleich übrigens, da eine Maschine nicht unter den Einschränkungen biologischer Entitäten wie Müdigkeit, Ablenkung durch andere Reize und Fehleranfälligkeit leidet. Es würde ja auch niemand einen Menschen mit einer Schaufel gegen einen Bagger antreten lassen und aus dem erwartbaren Ergebnis auf den bevorstehenden Untergang der Zivilisation schließen. Waffengleichheit beim Schach hieße, einem Großmeister deutlich längere Bedenkzeit einzuräumen und die Option, sich mit anderen Koryphäen seiner Disziplin ausführlich über seinen nächsten Zug zu beraten. Das Ergebnis einer solchen Auseinandersetzung wäre dann wieder völlig offen.

Viele Fragestellungen sind aufgrund der Menge an Entscheidungsoptionen und des Umfangs der Eingangsdaten mit Brute-Force-Algorithmen kaum zu bewältigen. Hier bedarf es eleganterer, effizienterer Ansätze. Und wieder sind es menschliche Erklärer, denen es gelungen ist, so etwas wie die Erkennung von Mustern mathematisch auf das Finden von Nullstellen komplexer Funktionen zurückzuführen. Was wiederum eine zwar immer noch lange, aber letztendlich begrenzte Abfolge von Additionen erfordert. Nichts anderes leisten neuronale Netzwerke, sie berechnen die Nullstellen gigantisch großer Polynome, um Go zu spielen oder Bildmotive zu analysieren.

Mit menschlichem Denken hat das nichts zu tun. Wir zerlegen ein Bild nicht in Pixel mit Farbwerten, um schließlich nach tausend vergeblichen Rateversuchen eine Katze zu erkennen. Es genügt, einem Menschen einmal eine Katze zu zeigen und er wird in Zukunft eine solche immer in jedem Zusammenhang mit hundertprozentiger Treffsicherheit identifizieren. Ganz gleich, ob ihm das Tier in der Realität begegnet, in einem Gemälde oder einer Fotografie, ganz unabhängig von Merkmalen wie Größe, Körperbau oder Fellfärbung. Und das gilt für jedes beliebige Objekt, wir identifizieren Lokomotiven ebenso zuverlässig wie menschliche Gesichter, Blumen oder Gebäude. Mehr noch können wir allen Objekten sofort Eigenschaften, Funktionen und Bedarfe zuordnen. Womöglich, weil wir ununterbrochen erklärende Modelle für die Existenz und die Merkmale von Dingen generieren.

Konventionelle Intelligenztests berücksichtigen diese Fertigkeit nicht. Sie prüfen lediglich das kognitive Leistungsvermögen anhand unterschiedlicher Aufgaben, die unter anderem logisches und mathematisches Denken, Sprachverständnis, räumliches Vorstellungsvermögen, Erinnerungsvermögen, erworbenes Wissen und Allgemeinbildung abfragen. In fast jedem dieser Aspekte schneiden KI bereits jetzt besser ab als menschliche Probanden. Geeignet programmierte Computer werden also in naher Zukunft schwindelerregend hohe Intelligenzquotienten erzielen und müssen daher rein formal als „intelligent“ bezeichnet werden. Denken können sie dennoch nicht.

Mikrochips wissen ja nicht nur nicht, was eine Katze ist oder eine Schachfigur. Sie ahnen noch nicht einmal, an einem Schachspiel beteiligt zu sein oder ein Bild zu analysieren. Sie jonglieren nur mit numerischen Werten, deren Bedeutung ihnen konstruktionsbedingt verschlossen bleibt. ChatGPT erkennt keinen Sinn und formuliert auch keinen. Die Software verwandelt eine eingehende Reihe an Zahlen (die Wörter codieren) in eine neue Zahlenfolge (die wiederum nur Wörter codiert) anhand gewisser Regeln. In denen Vorgaben wie „welche Begriffe sind mit welchen anderen Begriffen assoziativ verknüpft“ und „welche Wörter folgen in einem Satz mit welcher Wahrscheinlichkeit aufeinander“ verschlüsselt sind. Aus der Kombination mit einem Expertensystem, das grammatisch wie inhaltlich orientierte Logikentscheidungen trifft, der Integration einer nicht vollständig deterministischen Flexibilität und nach intensivem Training zur Feinabstimmung dieser Komponenten entsteht ein Apparat, der regelmäßig gut lesbare Texte ausgibt. Sollte ein menschlicher Leser in diesen Wortfolgen tatsächlich über Banalitäten hinausgehende Botschaften erkennen, so handelt es sich um einen auf die Qualität der Eingangsdaten und des Trainings zurückgehenden Zufall. Gleiches gilt für Aussagen, die nicht nur plausibel anmuten, sondern auch noch inhaltlich tadellos sind.

Wo die Regeln der Mathematik, richtig angewendet, zwingend korrekte Ergebnisse hervorbringen, ist den Regeln der Sprache die Option zu schwindeln inhärent. Deswegen kann ein schreibendes Programm nicht algorithmisch auf Faktentreue festgelegt werden. Zumal es sehr häufig einander widersprechende Quellen verarbeiten muss und selbst so einfache Dinge wie die Namensgleichheit zweier unterschiedlicher Personen prinzipiell nicht aufzulösen vermag. Wahre Aussagen darf man von einem solchen Automaten daher nicht erwarten. Es ist eher verblüffend, wenn überhaupt etwas stimmt.

ChatGPT repräsentiert eine von Menschen entwickelte, mathematische Erklärung des Wesens der Schriftsprache. Eine nicht besonders effektive Erklärung, denn Menschen verfassen Texte anders. Wir beginnen mit dem auszudrückenden Sinn und suchen von diesem abhängig nach passenden, kontextgeeigneten Formulierungen. Argumentative Stringenz und ästhetische Gestaltung stehen am Ende dieses Prozesses und nicht schon an seinem Beginn. ChatGPT hingegen weiß nichts über Bedeutung, Botschaft und Rezeption, weil es keine Ahnung von dem Kontext seiner Berechnungen hat. Und gleicht darin nicht nur allen anderen Künstlichen Intelligenzen, sondern überhaupt allen anderen künstlichen Artefakten.

KI sind in derselben rein abstrakten, auf menschgemachten Vergleichsmaßstäben beruhenden Weise „intelligent“, wie ein Automobil „leistungsstark“, ein Bildschirm „hochauflösend“ oder ein Möbelstück „stabil“. Ihr Wissen hingegen ist mit dem eines Fahrzeugs, eines Monitors oder eines Schreibtisches identisch, also gleich null. Schlechtere Voraussetzungen zur Übernahme der Weltherrschaft und der Versklavung der Menschheit sind kaum vorstellbar.

Stattdessen werden KI als überaus mächtige Werkzeuge der Datenverarbeitung unsere Lebensumstände in erheblichem Umfang verbessern. Jeder auf einer Abfolge formal definierbarer Entscheidungen basierende Prozess, in dem es keine oder nur triviale Spielräume gibt, ist mit ihrer Hilfe automatisierbar. Wo heute ein Buchhalter mit einem Computer und einer Tabellenkalkulation die Arbeit von fünfzig früher mit Papier und Bleistift arbeitenden Kollegen erledigt, wird ein Buchhalter mit einer KI wiederum fünfzig Tabellenkalkulatoren ersetzen. Das Potential zu Effizienzsteigerungen in allen Bereichen und Sektoren ist enorm, von der Fertigung von Produkten bis hin zur öffentlichen Verwaltung. Generative Wandler, die beliebige Eingaben in variable Ausgaben umsetzen („GPT“ steht für „Generative Pre-trained Transformer“), vermögen uns sogar bei kreativen Tätigkeiten zu assistieren. Erzeugen sie doch Varianten interessanter Muster (Bilder), wohlklingender Tonkombinationen (Musik) oder gefälliger Wortfolgen (Sprache), die Assoziationen induzieren und neue Impulse auslösen können.

Wer das nun regulieren möchte, lebt in dem Wahn, die Mathematik an sich behördlich kontrollieren zu können. Zumal sich in Vorstellungen, den Einsatz von KI strikt begrenzen oder gar verbieten zu müssen, weniger die Angst vor halluzinierten allmächtigen Elektronengehirnen äußert, sondern weit mehr eine Geringschätzung des Menschen selbst. Wer sagt, ChatGPT sei gefährlich, weil es Märchen erzählt, zieht die Fähigkeit seiner Mitbürger in Zweifel, mit erfundenen Geschichten umzugehen. Obwohl uns solche doch seit Beginn der Menschwerdung ununterbrochen begleiten. Wir selbst sind die talentiertesten „GPTs“, die es gibt, und darin jeder Software himmelhoch überlegen. Ein guter generativer Wandler ist aber noch lange kein effektiver Erklärer. Unsere Politiker belegen dies täglich aufs Neue.


Categories: Peter F. MayerTags: , Daily Views: 1Total Views: 17
benedikt-war-unser-marc-aurelBenedikt war unser Marc Aurel
wie-jerusalem-den-kampf-gegen-die-hegemonialmacht-vorbereitet-–-10Wie Jerusalem den Kampf gegen die Hegemonialmacht vorbereitet – 10