Grenzen der künstlichen Intelligenz – eine Kritik an der KI

Künstliche Intelligenz (KI) werde überbewertet und wecke unrealistische Erwartungen, schreibt der Autor dieses Artikels und setzt damit einen bewussten Kontrapunkt zum weltweiten Hype um die KI.

Künstliche Intelligenz hat den Ruf, mehr zu können als der Mensch. Stimmt das?

Der Komparativ «mehr» verweist auf eine Quantität und zieht die Frage «mehr wovon?» nach sich. Technik hilft oft dabei, mehr zu können: Mit der Schaufel kann man in gegebener Zeit mehr Erde ausheben als mit den Händen und mit einem Bagger noch mehr. Indem man eine Maschine mit einer Energieversorgung bzw. einem Vorrat an Energie und der Fähigkeit ausstattet, diese zu verwerten, koppelt man sie von animalischen bzw. menschlichen Bewegern ab, um scheinbare Automobilität zu erreichen. Das bringt mehr Bewegungsleistung als ein Mensch. Indem man Maschinen mit der Fähigkeit ausstattet, selbständig eine Folge von in ­ihrer Konstruktion ­angelegten oder einem spe­ziellen Speicher abgelegten Instruktionen aus­zuführen, erhält man Automaten, die z. B. in ­gegebener Zeit viel mehr Rechenoperationen ausführen können als ein Mensch. Das Urbild ­einer selbstgesteuerten und mit eigenem Antrieb versehenen Maschine ist die Uhr. Ihre Leistung, die darin besteht, den Tagesablauf un­abhängig von äusseren Anzeichen exakt zu strukturieren, kann der Mensch alleine nicht ­erbringen. Mit ihr beginnt die Moderne – und zwar in den mittelalterlichen Klöstern.

Der Mensch erscheint heute, wie Günther Anders feststellte, in vieler Hinsicht kleiner als seine Geschöpfe. Die neueste Generation von Automaten kann – wiederum in viel grösserer Menge als der Mensch – sprachliche Äusserungen oder Bilder hervorbringen, die oft, doch nicht immer, Ähnlichkeit mit von Menschen gemachten ­haben. Sie können viele Aspekte menschlichen Verhaltens, menschlicher Leistungen sogar in übermenschlichem Massstab imitieren, doch was sie nicht können, ist, sich konsistent und ­umfassend wie ein leiblicher, mit Bewusstsein begabter Mensch zu verhalten, sie können noch nicht einmal, was schon Einzeller können, sich in ihrer Umwelt selbsterhaltend verhalten und sich selbst reproduzieren.

Zwischen Spezifität und Sensibilität

Es gibt zunehmend unrealistische Erwartungen an die heute im Zentrum des Interesses stehende KI, die auf eine mangelnde Wahrnehmung von deren Funktionsprinzipien zurückgehen. Diese als Maschinenlernen (ML) bezeichnete Form der KI zielt darauf, in ihrer Bestimmtheit unbekannte Funktionen auf der Basis der Kenntnis einer, wenn auch in manchen Fällen sehr grossen, doch grundsätzlich endlichen Anzahl von Punkten, d.h. Input-Output-Paaren zu approxi­mieren. Diese Punkte bilden die Trainingsmenge oder Lernmenge. Das Training geschieht, indem mittels gezielten Probierens die Parameter einer Näherungsfunktion bestimmt werden; wobei die Korrektur der Parameter aus der Abweichung der Ergebnisse von den bereits bekannten ­Werten errechnet wird. Dies ist ein Prozess, der, abhängig vom Umfang der Trainingsmenge und der Anzahl der erforderlichen Parameter – bei grossen Systemen sind das zig Milliarden –, gigantischen Rechen- und entsprechenden Energieaufwand erfordern kann. Die formale Gestalt der Näherungsfunktion richtet sich nach der ­Erfahrung, die man mit bestimmten Klassen von Aufgaben gemacht hat. Dieser Ansatz kann, obwohl das oft behauptet wird, grundsätzlich nicht für alle, sondern mit hinreichender Genauigkeit in einem hinreichenden Bereich nur für ­bestimmte Funktionen klappen. Was «hin­reichend» heisst, hängt von der jeweiligen Anwendung bzw. von der dafür erstellten Anforderungs­definition ab. Eine Gefahr liegt auch in der Überanpassung der Näherungsfunktion an die ­Trainingsdaten, die dazu führt, dass lediglich Rauschen reproduziert wird.

Viele Anwendungen bestehen darin, die Menge der Eingaben in Klassen einzuteilen, d.h. jede Eingabe einer Klasse zuzuordnen. Eine paradigmatische Anwendung ist das Bilderkennen: Auf der Basis einer Menge von beschrifteten Bildern sollen solche Systeme lernen, auch den Inhalt unbeschrifteter Bilder zu erkennen. In manchen Fällen geht es nur darum, zu erkennen, ob ein Bild oder ein sonstiger Datenkomplex, z. B. eine Tonaufnahme, auf einen bestimmten Sach­verhalt hinweist, etwa ein Geräusch auf eine Störung in einer Maschine oder ein Röntgenbild bzw. ein MRT-Scan auf einen ­Tumor oder auf Tuberkulose. Die zu solchen Zwecken gebauten KI-Systeme liefern prinzipiell keine scharfen Ergebnisse, sondern nur Wahrscheinlichkeiten. Im Falle eines Systems, das ­tausend Bildinhalte unterscheiden soll, liefert es einen Vektor der entsprechenden Länge, der für jeden dieser Inhalte eine Wahrscheinlichkeit ­angibt. Dabei kann ein deutliches Maximum bei einem bestimmten Inhalt vorliegen – was allerdings nicht heisst, dass das auch treffend ist – oder eine Verteilung, die mehreren Inhalten ähnliche Wahrscheinlich­keiten gibt. Im Falle ­binärer Entscheidungen wie Tumor oder Tuberkulose Ja/Nein reicht ein einziger Wahrscheinlichkeitswert für Ja, weil der für Nein sich als Komplement zu eins ergibt. Es gibt dabei grundsätzlich das Problem der Konkurrenz von Spezifität und Sensibilität. Je mehr positive Fälle man zu erwischen versucht, indem man die Schwelle für Ja herabsetzt, desto mehr falsch positive wird man erhalten.

Das hier auftretende Dilemma lässt sich durch sorgfältiges Arbeiten, insbesondere bei der ­Auswahl und Aufbereitung der Trainingsdaten, vermindern, doch nicht grundsätzlich aus der Welt schaffen. Vielmehr sind immer verfahrenstechnische und organisatorische Massnahmen gefordert, um sein Schadenspotenzial in der ­Praxis zu begrenzen.
Diese Problematik ist analog zu jener, die sich auch bei der Interpretation von medizinischen Daten ergibt, beispielsweise der Signifikanz des BMI für die Gesundheit.

Datenschutz

Von der KI geht eine Gefahr für den Datenschutz aus, weil ihre heute vorherrschende Variante, das ML, grosse Mengen an Daten be­nötigt – vor allem für das Training, doch auch die Anwendung im Einzelfall. Ob es nun um die Klassifikation von Kunden im Online-Handel oder um die Automatisierung des automobilen Fahrens geht, hängt von der Verfügbarkeit von möglichst umfassenden Daten ab. Genauer: Mit dem ML verbindet sich, in Umkehrung der realen Verhältnisse, die Erwartung, zu signifikanten Einsichten und wirksamen Handlungsoptionen gelangen zu können, indem man möglichst viele Daten sammelt. Man glaubt, daraus irgendwelche Gesetzmässigkeiten destillieren zu können, produziert jedoch meist Bullshit Science oder gar unmittelbar sozialen Schaden. In den Biowissenschaften ist die Zahl nicht reproduzierbarer ­Studienergebnisse auf diese Weise stark angestiegen.

Datensicherheit ist primär eine Frage der Organisation bzw. der darauf gestützten Verfahren und erst sekundär eine Frage der Technik. KI kann in diesem Kontext eine Rolle spielen. Zum Beispiel kann ML helfen, Angriffe auf Systeme anhand von Nutzungsmustern frühzeitig zu erkennen. Doch auch Derartiges kann nur innerhalb einer Organisation funktionieren, in der es darauf ­abgestimmte und intakte menschliche Kommunikationskanäle gibt. Technik allein funktioniert nicht!

Rainer Fischbach

Rainer Fischbach war mit der Konstruktion industrieller IT-Systeme sowie betrieblich und als Dozent an der Dualen Hochschule Baden-Württemberg mit der Ausbildung Technischer Informatiker beschäftigt. Er forschte zur Planungstheorie und zur Technikfolgenabschätzung, ist Autor von vier Monografien sowie von zahlreichen Buch und Zeitschriftenbeiträgen zu informationstechnischen, wissenschafts- und technologiepolitischen Themen.