Bereich: B Herausforderungen der Gegenwart

Thema: Natürliche und künstliche Intelligenz

Beitrag 4: Künstliche Intelligenz (Bodo Fiebig)

www.lebenundfrieden.de

Themenbereich 4: Herausforderungen der Gegenwart

Thema 4-4: Natürliche und künstliche Intelligenz

Beitrag 4-4-4: künstliche Intelligenz

Wir haben im Beitrag 1 „Prozesse im Bereich von (natürlicher) Intelligenz“ beschrieben: Wahrnehmen und empfinden, verarbeiten und speichern, handeln und gestalten. Bei der Entstehung von „künstlicher Intelligenz“ spielen ähnliche Vorgänge eine entscheidende Rolle. (Wobei ich hier darauf hinweisen muss, dass ich kein Fachmann für Informatik und speziell für „künstliche Intelligenz“ bin, sondern als Laie nach der Vergleichbarkeit von „natürlicher“, vor allem menschlicher, und „künstlicher“ Intelligenz frage.)

Menschen brauchen (wie Computer) zum Denken eine Datenbasis, die bekommen sie von den Wahrnehmungen ihrer Sinnesorgane (Sensoren), aber auch durch „Dateneingaben“, deren Inhalte nicht aus eigenen Wahrnehmungen stammen (z. B. durch Bücher, Gespräche, Vorträge, Zeitungsartikel, Fernsehnachrichten, Filme, Wikipedia-Einträge usw.). Durch die Verarbeitung solcher Daten, durch Rückkopplungseffekte und Mustererkennung … und durch Kommunikation verschiedener Informationen und Erfahrungen entstehen Lernprozesse, die sich immer weiter entfalten und deren Ergebnisse selbst wieder zu neuen weiterführenden Daten werden, so dass das Ganze (der Mensch als Einzelnen und als Gemeinschaft) zu einem selbstlernenden System wird.

Dabei geschieht aber nicht nur eine immer weitergehende Anhäufung von gespeicherten Inhalten (also eine wachsende Quantität von Daten), sondern auch eine gesteigerte Qualität des Verständnisses von Verhältnissen und Vorgängen, von Zusammenhängen und Begründungen, das immer neue Erkenntnisse ermöglicht. Unser „Wissen“ besteht aus „Daten mit Bedeutung“, aus geordneten, verknüpften, reflektierten und interpretierten Daten. Eine sich selbst erweiternde Datenbasis (Erfahrungen), zusammen mit einer Datenverarbeitung, die sich immer wieder an “Messwerten“ (Beobachtungen) rückkoppelt und an Zielwerten (Wünschen, Absichten Hoffnungen) orientiert – so wird menschliches Denken (ebenso wie maschinelle Datenverarbeitung) zu einem selbstoptimierenden System.

Schließlich eröffnen die selbstlernenden und selbstoptimierenden Systeme des Menschseins (wie auch die von Computersystemen mit künstlicher Intelligenz) auch die Möglichkeit, zwischen verschiedenen Verhaltens-Optionen und Handlungsalternativen zu wählen und die möglichen Folgen solcher Optionen und Alternativen zu vergleichen und abzuwägen. So wird wird das Denken von Menschen (und Maschinen) auch ein selbstentscheidendes System, das begründet handeln, bewusst gestalten und autonom entscheiden kann.

Menschen sind (von der Sichtweise der Datensysteme her betrachtet) hochkomplexe und integrierte selbstlernende, selbstoptimierende und selbstentscheidende Daten-Systeme). Gewiss: Menschen sind mehr als das, aber sie haben eben auch Eigenschaften, die mit modernen computergestützten Datensystemen vergleichbar sind.

Technische Systeme mit künstlicher Intelligenz sind von Menschen gemacht und diese versuchen ihren „Maschinen“ beizubringen, wie man erfolgreich „denkt“ (so wie Menschen das seit Jahrtausenden tun, siehe Beitrag 1). Dabei entstehen Maschinen-Systeme, die (vergleichbar mit Menschen in ihrer Entwicklungsgeschichte)als selbstlernende, selbstoptimierende und selbstentscheidende Systeme nicht mehr auf die direkte Steuerung von außen angewiesen sind. Es entstehen autonome technische Systeme.

1 Autonome Systeme

Wenn also Systeme mit „künstlicher Intelligenz“ so angelegt sind, dass sie ähnlich vorgehen, wie es die Entstehungs-Geschichte menschlicher Intelligenz vorgibt (siehe Beitrag 1 „natürliche Intelligenz“), dann können wir an den uns vertrauten menschlichen Fähigkeiten ablesen, in welcher Weise die (für die meisten Menschen sehr abstrakten und unzugänglichen) Computersysteme mit „künstlicher Intelligenz“ heute arbeiten. Menschen sind (von der Sichtweise der Datensysteme her betrachtet) hochkomplexe und integrierte selbstlernende, selbstoptimierende und selbstentscheidende Datenverarbeitungs-Systeme. Und so können wir auch technische Systeme mit künstlicher Intelligenz anschauen und verstehen.

Autonome Systeme werden sie dann, wenn die Entwicklungsabläufe und Ergebnisse in den selbstlernenden, selbstoptimierenden und selbstentscheidenden Teilbereichen nicht mehr von denen, die diese Systeme in Gang gesetzt haben, kontrolliert werden oder nicht mehr kontrolliert werden können.

Ein Beispiel für ein autonomes System (das kurz vor der Verwirklichung steht) wäre ein selbstlenkendes Auto, das mit einer Unmenge an Sensoren bestückt ist, die z. B. die Straßenverhältnisse, die Verkehrssituation, das Wetter usw. erfassen und an einen zentralen Computer schicken, der dann aus der Riesenfülle von Daten in jeder Sekunde die optimalen Handlungsanweisungen berechnet und die Funktionen des Autos steuert. Noch laufen solche automatisierten Vorgänge der Wahrnehmung, Berechnung und Steuerung nicht optimal, werden aber bald so weit sein, dass sie besser als jeder menschliche Fahrer funktionieren und die Menschen gut beraten sind, wenn sie nicht in die intelligente Steuerung der künstlichen Systeme eingreifen.

Das wäre beim autonomen Fahrzeug wenig problematisch, denn es ist ja (so ist das vorgesehen) immer noch der Mensch, der das Ziel der Fahrt festlegt und der auch in die automatisierten Vorgänge eingreifen könnte. Aber könnte es auch intelligente Systeme geben, die besser als wir selbst wüssten, wohin wir fahren sollten, mit wem wir dort sprechen sollten und was bei unserem Gespräch herauskommen sollte, weil nur das intelligente Maschinen-System weiß, wie alle Entwicklungs-Stränge unseres vergangenen und gegenwärtigen Lebens zusammenlaufen und welche Strategie für unsere Lebens- und Handlungsweisen das optimale Ergebnis für die Zukunft hervorbrächte? Wir werden noch darauf zurückkommen.

1.1 Teilbereiche autonomer Systeme

Wir stellen fest: Die gleichen Teilsysteme wie bei menschlicher Intelligenz finden sich auch in Systemen mit computergestützter „künstlicher Intelligenz“:

Selbstlernende Systeme, also Systeme, die aus Datenvorgaben bestimmte Muster erkennen und davon statistische Wahrscheinlichkeiten ableiten und die aus ihren Ergebnissen (die nun selbst wieder zu Datengrundlagen werden) zusammen mit neuen externen Daten immer neue Lernprozesse in Gang setzen.

Selbstoptimierende Systeme, also Systeme, die aus den Rückmeldungen der Datenverarbeitung im Vergleich mit Zielvorgaben ihre Strategien und Vorgehensweisen selbständig so verändern, dass sich die Ergebnisse den Vorgaben annähern. Wobei die Zielvorgaben einen Endpunkt beschreiben können („diesen Wert wollen wir erreichen“), bei dessen Erreichen der Prozess beendet wird oder auch offene Zielbeschreibungen enthalten (schneller, weiter, mehr …), die (theoretisch) unbegrenzt weitergehen könnten (oder erst von der Endlichkeit der Ressourcen begrenzt wären).

Selbstentscheidende Systeme, also Systeme, die im aktuellen Einsatz ohne das Zutun von Menschen aus ihren Berechnungen Konsequenzen ableiten und diese unmittelbar in konkrete Entscheidungen umwandeln, die dann auch konkrete Auswirkungen in der „realen Welt“ haben können.

Diese drei Systeme können ineinander greifen, ja zu einem einzigen Gesamt-System integriert werden, das selbständig lernt, das die Fähigkeit hat, die eigenen Vorgehensweisen und die Datengrundlagen dafür selbst zu optimieren und schließlich Entscheidungen zu treffen (wie das ja bei Menschen schon immer der Fall ist), in Prozessen, die aber dann möglicherweise nicht mehr von Menschen kontrolliert werden können (z. B. weil die Datengrundlagen und die Verarbeitungsprozesse so umfangreich und komplex werden, dass sie für Menschen nicht mehr überschaubar wären und die Vorgehensweisen für die Optimierung dieser Prozesse nicht mehr nachvollziehbar sind).

Hier geht es zum ersten Mal nicht mehr um die (immer begrenzte) Erweiterung und Steigerung von menschlichen Fähigkeiten (siehe Beitrag 2 „Erweiterung menschlicher Fähigkeiten“), sondern um Eigenschaften, Funktionsweisen und Potenziale, die grundsätzlich über das Menschen-Mögliche hinausgehen können. Dabei entsteht zum ersten Mal die Gefahr, dass Menschen die Kontrolle verlieren über die Entwicklung und die Ergebnisse von Prozessen, die von ihnen selbst eingerichtet und in Gang gesetzt wurden und dass sie damit die Verantwortung für ihre eigenen „Geschöpfe“ aus der Hand geben. Das liegt daran, dass Systeme mit „künstlicher Intelligenz“ etwas können, was bisher nur Lebewesen vorbehalten war: Selbständig etwas zu lernen, dabei das eigene Denk-System und die entsprechenden Denk-Vorgänge selbständig weiterzuentwickeln und schließlich im Rahmen solcher erworbenen Fähigkeiten selbständige Entscheidungen zu treffen.

Autonome Systeme mit künstlicher Intelligenz sind selbstlernende, selbstoptimierende und selbst-entscheidende, Systeme, die, einmal in Gang gesetzt, Entwicklungen vollziehen und Ergebnisse hervorbringen können, die von den Menschen, die sie in Gang gesetzt haben möglicherweise nicht mehr kontrolliert werden können.

1.2 Kontrollierbarkeit autonomer Systeme

Ich will versuchen, die Wirkungsweise (und möglicherweise auch Gefahrenquelle) selbstlernender, selbstoptimierender und selbstentscheidender Systeme an einem sehr vereinfachten fiktiven Beispiel darzustellen. Nehmen wir an: In einer Weltgegend, wo die Verhältnisse zwischen Staaten, Gesellschaften, Kulturen, Religionen, Volksgruppen … oft sehr spannungsvoll sind, kommt es in einer politisch kontroversen Situation zu einem Grenzstreit, der sich jederzeit in Form von kriegerischen Aktionen verschärfen könnte. Auf beiden Seiten der Grenze werden militärische Einheiten konzentriert, aber noch hält der Waffenstillstand. Auf beiden Seiten sind die Streitkräfte mit modernen Waffensystemen ausgestattet. Beide Seiten verfügen über unbemannte, aber bewaffnete Kampfdrohnen, mit denen sie ihren Luftraum verteidigen wollen. Diese Drohnen sind auf beiden Seiten der Stolz der Militärs, weil sie mit modernsten Computersystemen ausgestattet sind, die schneller und effektiver die Lage beurteilen und optimale Entscheidungen treffen können als das je ein Mensch könnte.

Jahrelang wurde von den fähigsten Experten an diesen Systemen gearbeitet. Künstliche Intelligenz sollte sie im Ernstfall optimal einsetzbar machen. Ein Offizier der Grenztruppen erklärt uns die Zusammenhänge (wobei er selbstverständlich nicht auf geheime militärische Details eingeht):

Wir haben hier die neueste Generation von autonomen Drohnen, deren Computersysteme in der Lage sind, selbständig ihre Datenbasis zu erweitern, ihre Arbeitsweise selbständig zu optimieren und autonom Entscheidungen zu fällen und auszuführen.“

Der Offizier unterbricht sich kurz, offensichtlich um zu überlegen, wieviel interne Details er weitergeben dürfte und fährt dann fort:

Dafür mussten die Bordcomputer erst einmal mit Daten versorgt werden. Ihre geografischen Erkennungssysteme wurden zuerst mit Satelliten-Daten „gefüttert“. Dann wurden die Drohnen mehrmals nachts heimlich zu unbewaffneten Erkundungsflügen gestartet, wo die selbstlernenden Systeme die dabei gewonnenen aktuellen Daten mit den gespeicherten vergleichen mussten, um Veränderungen festzustellen und Entwicklungen vorausberechnen zu können. Jetzt sind die Systeme soweit trainiert, dass sie sich im ganzen Einsatzgebiet optimal orientieren können und dass sie bei Tag oder bei Nacht und bei jedem Wetter allein und ohne Hilfe der Basisstation jedes beliebige Ziel zuverlässig ansteuern können, dass sie Veränderungen in der Geografie und der Bebauung selbständig wahrnehmen und einordnen können, ja, dass sie sogar bei beweglichen Zielen relativ genau voraussagen können, wo die sich zu einer bestimmten Zeit befinden werden.“

Man kann an der Stimme und der Körperhaltung des Offiziers ablesen, wie stolz er auf diese Errungenschaften ist.

Als Nächstes mussten die selbst-optimierenden Systeme auf alle möglichen Entscheidungs-Situationen vorbereitet werden. Die Systeme sollen z. B. selbständig zwischen Freund und Feind unterscheiden können. Dazu mussten die verschiedenen Erkennungsmerkmale operationalisiert und für die verschiedensten Umweltsituationen optimiert werden. Freilich, eine 100-prozentige Erkennungsquote war nicht zu erreichen. So legte man fest, dass eine mindestens 90-prozentige Sicherheit gegeben sein musste, bevor die Systeme in der Realität zum Einsatz kommen dürfen. Diese 90 Prozent sind jetzt erreicht (manchmal sogar schon überschritten), weil die Systeme daraufhin optimiert wurden, aus Riesenmengen von Einzel-Daten bestimmte Muster zu erkennen, anhand derer sie ihre Erkennungsraten immer weiter verbessern konnten. Jetzt haben die selbst-optimierenden Systeme sogar schon die Fähigkeit entwickelt, anhand bestimmter Bewegungsmuster und Aktivitäten von Personen oder Personen-Gruppe zu erkennen, ob diese mit großer Wahrscheinlichkeit eher zustimmende oder ablehnende Einstellungen gegenüber der Regierungspolitik haben. Noch allerdings sind da die Trefferquoten zu gering, um daraus gezielte Operationen abzuleiten. Da müssen die vom Militär gewonnenen Erkenntnisse noch mit zusätzliche Daten aus dem Privatbereich der Personen zusammegeführt werden. Aber in naher Zukunft werden die selbst-optimierenden Systeme der Drohnen in der Lage sein, bei wesentlich verbesserter Treffer-Quote heimliche Gesinnungsfeinde aus der Luft zu identifizieren und, wenn nötig, zu eleminieren.“

An dieser Stelle hatte man den Eindruck, dass der Offizier selbst ein wenig erschrocken war, weil er mit seiner Bemerkung ein Zukunftsprojekt seiner Armeeführung verraten haben könnte. Dann aber fuhr er fort:

Schließlich mussten die selbst-entscheidenden Systeme für den Einsatz vorbereitet werden. Die selbst-lernenden und selbst-optimierenden Systeme arbeiten ja so schnell und so effektiv, dass jeder menschliche Eingriff oder Vorbehalt die elektronischen Systeme entscheidend langsamer und unpräziser machen würde. Schließlich arbeitet die anderen Seite ebenfalls an Drohnen mit künstlicher Intelligenz und noch haben wir einen kleinen Vorsprung, den wir nicht verspielen wollen. Und dazu müssen unsere Systeme schneller zu sicheren Entscheidungen kommen, als die unserer Feinde. Allerdings will ich mit Nachdruck darauf hinweisen, dass wir in unsere Entscheidungssysteme bewusst humane Überlegungen mit einfließen lassen. So haben wir z. B. festgelegt, dass die Systeme normalerweise einen bewaffneten Angriff dann nicht automatisch auslösen dürfen, wenn mehr als 10 unbeteiligte Zivilisten dabei um Leben kommen würden (es sei denn, dass wichtige militärische Interessen dafür sprächen, es dennoch zuzulassen). Auch sollten Angriffe nicht gestartet werden, wenn der zu erwartende Schaden (durch vorhersehbare Reaktionen der Feinde) für uns selbst größer wäre als der absehbare Nutzen (z. B. durch Ausschaltung feindlicher Anlagen und Human-Ressourcen).

Dabei müssen die Entscheidungssysteme immer eine große Bandbreite von militärischen, politischen, finanziellen, wirtschaftlichen, humanen … Vorgaben, Bedingungen und Folgen mit einrechnen, bevor sie den Feuerbefehl geben. Kein Mensch und kein militärischer Stab wäre je in der Lage, alle diese Abwägungen notfalls innerhalb von Sekunden-Bruchteilen durchzuführen und zu einer allseits begründeten Entscheidung zu kommen. Sie sehen, wir tun wirklich alles, um subjektives Versagen einzelner Menschen auszuschließen, die in einer angespannten Situation mit unüberlegte Handlungen unabsehbare Folgen auslösen könnten“

Damit schließt der Offizier seine Erklärungen ab, grüßt kurz und knapp und entlässt seine Gäste mit einer entsprechenden Handbewegung.

Spätere Anmerkung: Tatsächlich kam es in der darauffolgenden Nacht zu einer Situation an der Grenze, die sich unerwartet dramatisch verschärfte, so dass es auf beiden Seiten zum Einsatz computergesteuerter Drohnen kam. Daraus entstand (durch weitere, ebenfalls autonom entscheidende militärische Systeme gesteuert) eine mehrere Monate andauernde kriegerische Auseinandersetzung, der (auf beiden Seiten zusammengerechnet) mehr als zweihunderttausend Menschen zum Opfer fielen. Erst nach Ende der Kriegshandlungen wurde bekannt, dass (schon zwei Wochen vor dem ersten Angriff!) die Regierungen beider Länder bei Geheimverhandlungen eine weitgehende militärische Deeskalation und Entmilitarisierung an der Grenze beschlossen hatten. Die Kommandanten der Militäreinheiten an der Grenze waren schon informiert, nicht aber die Programmierer der autonomen Systeme. So gab es niemand, der das Unheil noch aufhalten konnte.

Die Geschichte der Jahrhunderte zeigt uns: Die militärische Nutzung neuer Technologien war schon immer der Treiber technischer Entwicklungen (als man begann, Burgen zu bauen, erfand man Belagerungsmaschinen und später Kanonen, denen auch die stärksten Mauern nicht standhalten konnten, und die Atombombe wurde zuerst gebaut, nicht das Atomkraftwerk). Aber: Der Missbrauch von künstlicher Intelligenz für militärische Zwecke ist nur eine Seite der Gefahr. Die zweite ist der Missbrauch zum Zweck der „Operationalisierung des Glücks

2 Die Operationalisierung des Glücks

Mit Operationalisierung“ meine ich hier den Vorgang, durch den ein abstrakter Begriff wie „Glück“ so „handhabbar“ gemacht wird (in Arbeitsschritte, Messverfahren, Auswertungskriterien usw. zerlegt), dass man Verfahren hat, mit denen man das, was man (in diesem Falle) mit „Glück“ meint, messen und gegebenenfalls verändern und vervollkommnen kann. (Unter „Glück“ verstehen die meisten Menschen eine Art „Hochgestimmtheit“ durch Befriedigung aller Bedürfnisse und Zufriedenheit mit den jeweils gegenwärtigen Zuständen, Vorgängen und Beziehungen.) Aber, kann man „Glück“ operationalisieren? Ja, man kann. Aus umfassenden Datensätzen von Milliarden von Menschen kann man mit Hilfe von künstlicher Intelligenz aus den bevorzugten Verhaltensweisen, Aktivitäten, Wünschen, Neigungen, Antrieben … ableiten, was Menschen jeweils um eine winzige Spur „glücklicher“ macht. Optimal kombiniert und jeweils auf ein bestimmtes Individuum passgenau zugeschnitten kann so eine Anwendung (App) Menschen auf eine Lebensweise ständig optimierter Glückserfüllung hin trainieren. Na also, das wäre doch mal eine wirklich menschenfreundliche Anwendung von KI: Jeder Mensch ein glücklicher Mensch!“ Aber, haben wir das wahrgenommen? Hier trainieren ja nicht Menschen ihre Computersysteme für eine effektive Nutzung, sondern die Systeme trainieren ihre Menschen für eine effektive Nutzung! Und haben wir nicht auch manchmal den Eindruck, dass die uns von den Daten-Giganten so freundlich zur Verfügung gestellten „Apps“ genau das beabsichtigen: Uns zu möglichst effektiven „Nutzern“ (d. h. zu möglichst umfassenden Datenlieferanden) zu trainieren? Und diese Vor-Gänge sind im vollen Gang. Nun stellen wir uns einmal vor, so ein „glücklicher“ Mensch würde der Gefahr ausgesetzt, dass er durch ein bestimmtes, „abweichendes“ Verhalten ein kleines Stückchen seines umfassenden Glücks verlieren könnte. Würde er nicht alles (alles!) tun, um sein (gewohntes und vertrautes) Glück wieder zu vervollkommnen?

Es kann sein, dass es schon in wenigen Jahren nicht mehr wirklich wichtig sein wird, ob ein Mensch in einem demokratischen Staat lebt oder in einer ideologisch ausgerichteten Diktatur und zwar deshalb, weil die entscheidenden Weichenstellungen für die gesellschaftlichen Realitäten da wie dort und weltweit überall von den gleichen Kräften bewegt würden. Die Lebensweisen der Menschen würde dann unabhängig von jeder staatlichen Verfassung von denen bestimmt, die allein alle Daten von allen Menschen haben und die entsprechenden Techniken, um von (weltweit) allen Menschen immer genauer jedes Detail ihres Lebens und ihrer Einstellungen zu kennen und ihr Verhalten immer effektiver zu steuern (nein, nicht mit Gewalt, sondern durch fast unmerkliche Impulse (nudging), die aber in ihrer Gesamtheit effektiver sind als einzelne Gewaltakte).

Vielleicht würden die Daten-Giganten dann die jeweils nötigen Teile ihrer Daten-Sammlungen, dazu das jeweils nötige „Know-how“ und die jeweils nötigen technischen Systeme an einen demokratischen Staat ebenso vermieten wie an eine ideologisch ausgerichtete Diktatur und die gewaltigen Summen, die sie dafür kassieren würden, könnten ihre technischen Systeme und ihre globale Vormacht noch weiter perfektionieren. Die „Herren der Daten“ würden die jeweiligen lokalen „Herrscher“ im Innern ihres jeweiligen Machtbereichs weiter herrschen lassen – diktatorisch oder demokratisch – egal, solange sie ihre Lizenzgebühren bezahlen. Aufs Ganze gesehen aber hätten sie, die „Welt-Daten-Könige“ (oder wären sie schon „Welt-Daten-Götter“?), alle Macht in ihren Händen, denn sie allein beherrschen die Systeme, die jede Form von konkreter Herrschaft überhaupt erst möglich machen.

Und sie würden ihren „Lizenznehmern“ (demokratisch oder diktatorisch egal) klar machen, dass sie ihren Untertanen „das große Versprechen vom großen Glück“ machen müssen, damit das System funktioniert (natürlich nicht für jene „Abweichler“, die, im Falle einer Diktatur, in ihren Konzentrationslagern und Folterkellern schmachten, aber doch für die großen Mehrheit, die man z. B. auch in einer demokratischen Wahl braucht). Und sie, die Daten-Götter würden dann das große Glück liefern, jedem Einzelnen ganz individuell, zugeschnitten auf die eigenen persönlichen Wünsche und Vorlieben, Ängste und Befürchtungen, Triebe und Süchte, Sehnsüchte und Hoffnungen …, die sie besser kennen als jeder Einzelne selbst (vgl. den Beitrag „Leben aus zweiter Hand“ im Bereich „mitreden“, im Thema „gefährliche Entwicklungen“, dort wird, ein wenig überzeichnet, eine solcher „Glückszustand“ beschrieben). Und vielleicht hätten es dann die Diktatoren gar nicht mehr nötig, Andersdenkende in Konzentrationslagern und Folterkellern schmachten zu lassen, weil es dann gar keine Andersdenkenden mehr geben kann im großen Glück, das für jeden (und auch für die vermeintlichen „Abweichler“) die genau auf sie zugeschnittenen Glücksmomente bereithält) in Form von Unterhaltung, von geistig herausforderndem Spiel und körperlich herausforderndem Sport und (fast) unbegrenzten Konsum.

Die „Operationalisierung des Glücks“ scheint die große Zukunftsaufgabe: Wie kann man aus der immer umfangreicheren und detailierteren Daten-Basis für jeden Menschen auf der Erde Algorithmen entwickeln, die für jeden Einzelnen genau jene Inhalte, Ereignisse und Aktivitäten errechnen, die ihm/ihr jeweils und zu jeder Zeit optimale Glücks-Erlebnisse bescheren? Multiprofessionelle Teams von Informatikern, Technikern, Neurologen, Psychologen, Soziologen, Ökonomen … arbeiten daran.

Aber noch sind wir nicht so weit. Noch steckt viel „Menschliches“ auch in technischen Systemen mit „künstlicher Intelligenz“ (siehe den folgenden Abschnitt „Fragestellung und Interpretation“).

 

3 Fragestellung und Interpretation

Computer sind unbestechlich, haben keine Vorlieben und Abneigungen, keine heimlichen Wünsche und keine verborgenen Ängste. Sie sind sachlich und neutral. Die Computer schon (wenn ihnen das so einprogrammiert wurde). Die Menschen, die sie bedienen (vor allem jene, die entscheiden, welche Daten den Computern zur Verfügung gestellt werden, und die den Computern sagen, was sie mit den Daten tun sollen und wie sie es tun sollen), nicht immer. Und so gibt es vor allem zwei Stellen, an denen die Vorlieben und Abneigungen, die Wünsche und Ängste von Menschen in die (an sich neutralen) Abläufe von computergestützten Lern-, Optimierungs- und Entscheidungsvorgängen eindringen und sie beeinflussen können: Die Fragestellung beim Einsatz von Computeranwendungen und die Interpretation von Ergebnissen.

3.1 Fragestellung

Die reale Welt ist unüberschaubar komplex. Das gilt schon für simpelste Dinge, zum Beispiel für einen kleinen Stein, der am Ufer eines Sees liegt. Ein kleiner Junge versucht, ihn flach über den See zu werfen, damit er mehrmals auf der Wasseroberfläche aufspringt. Es will ihm nicht gelingen. Nur einmal verzeichnet er einen kleinen Hüpfer seines Steins. Da kommt ein zufällig ein Physiker vorbei, sieht die vergeblichen Bemühungen des Jungen und gerät ins Grübeln: Gäbe es vielleicht optimale physikalische Bedingungen für das „Stein-übers-Wasser-hüpf-Problem? Menschliche Neugier zusammen mit seinen physikalischen Interessen setzen ihn in Bewegung. Zu Hause fängt er an zu berechnen, mit welchem Winkel und welcher Aufschlaggeschwindigkeit ein Stein die Wasseroberfläche berühren müsste um möglichst oft zu hüpfen und welche Form des Steins dazu optimal wäre …

Ganz anders sieht der gleiche Stein aus, wenn ihn ein Mineraloge am Seeufer findet: Er schaut sich den Stein genau an, nimmt sogar seine Lupe zur Hilfe, schüttelt den Kopf und kratzt sich hinterm Ohr. Er steckt den Stein ein und nimmt ihn mit in sein mineralogisches Labor. Dort schleift er eine Seite des Steins an und prüft die geschliffene Fläche unter dem Mikroskop. Kein Zweifel: Der Stein gehört dort in die geologische Gesamtsituation am See nicht hin. Der Mineraloge scant sie geschliffene Seite des Steins und sein System erkennt nun die genaue Zusammensetzung, die Körnung der Bestandteile, die kristallinen Besonderheiten … Diese Daten vergleicht es mit der Datenbank, in der die Daten von Hunderttausenden Gesteinsproben aus aller Welt gespeichert sind. Und siehe da: Der Stein stammt aus einem Steinbruch, der mehrere Tausend Kilometer von diesem See entfernt ist, aber wie kommt der da hin?

Es hätte auch sein können, dass ein Historiker diesen Stein findet. Auch er erkennt sofort, dass der Stein dort ein „Fremdkörper“ ist, aber er sieht noch mehr: Der Stein ist offensichtlich ein Bruchstück aus einer größeren Steintafel. Auf der flachen Seite findet er verwaschene Einkerbungen, die ihm „verdächtig“ vorkommen: könnten das Reste von Schriftzeichen sein, vielleicht 2 Zeichen aus einer ihm noch unbekannten Sprache? Aber, wenn ja, in welcher Sprache? Er fotografiert die Zeichen auf dem Stein aus verschiedenen Blickwinkeln. Unterdessen hat er in der Datenbank seines Instituts herausgefunden, welche Sprachen zu welcher Zeit in dem betreffenden Gebiet gesprochen wurden und welche Schriftzeichen dafür verwendet wurden. Nun gibt er in dem System nacheinander die Zeichensysteme der verschiedenen Sprachen aus verschiedenen Epochen ein und dazu auch die Einkerbungen im Stein, die möglicherweise Zeichen aus einer dieser Schriften sein könnten. Dann legt er fest, dass das System jede mögliche Kombination von zwei Zeichen der jeweiligen Schrift mit den Einkerbungen vergleichen soll, und zwar so, dass die Einkerbungen immer wieder um ein Grad weiter nach rechts gedreht werden, und so in jeder Position mit den Vorlagen verglichen werden. Eine Mammutaufgabe, für die ein Mensch Jahre benötigen würde. Aber Computer sind es ja gewöhnt, große Datenmengen in kurzer Zeit zu verarbeiten. Und tatsächlich: In einer bestimmten Kombination in einer bestimmten Sprache könnten die Zeichen mit den Einkerbungen übereinstimmen. Aber was könnten sie bedeuten und welcher historischen Situation sind sie zuzuordnen?

Wir sehen: Jede noch so harmlose Sache kann unüberschaubar komplex werden, je nachdem, welche Fragen man an sie stellt. Und das ist die Aufgabe der Modellierer für selbstlernende und selbstoptimierende Computer-Systeme: Die richtigen Fragestellungen zu finden, und die Vorgehensweisen festzulegen, welche die Fragen beantworten sollen. Dabei müssen sie immer die Komplexität der „realen Welt“ so vereinfachen, dass sie auf die Fragestellung passt, für die eine Antwort gesucht wird.

Das wäre für die Fragestellungen des Physikers, des Mineralogen und des Historikers relativ einfach. Aber wenn man nun die Frage stellen würde: Welches Studienfach wäre denn für den kleinen Jungen (wenn er dann etwas größer ist) besser geeignet: Physik, Mineralogie, oder Geschichte??? Wie operationalisiert man die Lern-Karriere eines Schülers bis zum Abitur und bis ins Studium? Welche messbaren Größen (Intelligenzquotient, Lernumfeld, Lernförderung) … spielen dabei eine Rolle? Welche Entwicklungen und Weichenstellungen sind entscheidend? Jetzt würden wahrscheinlich die Fragestellung und die Herangehensweise jeweils verschieden ausfallen, je nachdem, ob sie der Vater stellt (der Mineraloge ist), die Mutter (eine Historikerin), oder der Lehrer (der sich für Physik begeistert). Vielleicht würde ein menschlicher Schulberater mehr Fehler machen als ein Computer-System, aber vielleicht würde er die durch Empathie und persönlichen Einsatz wieder ausgleichen?

Oder anders ausgedrückt: Wenn es nicht um begrenzte Sachfragen geht (z.B. aus der Physik, der Mineralogie oder der Geschichte …), sondern wenn es um Fragen an die Persönlichkeit von Menschen und die Belange von menschlichen Gemeinschaften geht (z. B. aus der Psychologie, der Soziologie, der Politologie, der Philosophie oder Theologie …) dann wird die Gefahr sehr groß, dass allein schon die Art der Fragestellung entscheidend darauf Einfluss nimmt, wie die Anlage der Untersuchung vorgenommen wird und wie dann die Ergebnisse der Berechnungen ausfallen.

3.2 Interpretation

Eine zweite „undichte Stelle“, an der menschliche Interessen zu Verzerrungen im System führen könnten ist die Interpretation der Ergebnisse. Wieder wird, wenn es um naturwissenschaftliche Fragestellungen geht, die Interpretation durch sachliche Gegebenheiten stark festgelegt. Da aber, wo die Fragestellungen psychologische, soziologische, politologische, philosophische oder theologische Aspekte … berühren, wird es entscheidend auf die Einstellungen, Interessen und Absichten der Interpretierenden ankommen, was sie aus den Ergebnissen der Computerberechnungen herauslesen. …

Aber: Wir sollten diese menschliche Einflussnahme in computergestützen Systemen der Datengewinnung und Datenverarbeitung nicht nur negativ sehen. Die Fragestellung und Interpretation sind auch die Stellen, wo die Maschinen-Systeme „menschliche Züge“ bekommen, wo sie menschlicher Verantwortung begegnen. Und es wäre sehr bedenklich, wenn man alle Anweisungen und Entscheidungen innerhalb der Prozesse in autonomen Systemen auch diesen Systemen überlassen würde (siehe den folgenden Beitrag „verantwortete Systeme“). Wobei ja die verwendeten Beispiele bewusst einfach und anschaulich gehalten wurden und in dieser Form noch nichts mit „künstlicher Intelligenz“ zu tun haben müssen. Trotzdem wird deutlich wie schier unbegrenzt die Möglichkeiten der Anwendung von Informationstechnologie und „künstlicher Intelligenz“ sein können. Und hier kommt eine dritte Stelle für mögliche Einflussnahme von Menschen in automatisierte Abläufe ins Spiel: Die Fähigkeit zur Selbstbegrenzung.

3.3 Selbstbegrenzung

Menschen müssen das immer wieder neu lernen: Unbegrenzte Entwicklungen wirken sich fast immer schädlich, ja selbstzerstörend aus. Wirtschaftliches Wachstum, technischer Fortschritt, sozialer Wohlstand … das sind ja wirklich großartige Entwicklungen, die keiner der sie einmal erfahren hat, mehr missen möchte. Und das treibt die Entwicklung an: Immer besser, immer schneller, immer weiter … Und irgendwann stellt man erschrocken fest: Der Fortschritt ist an einer Grenze angekommen, wo jedes Fort-Schreiten in die Katastrophe führen kann. Aber dann ist es fast schon unmöglich geworden, die Entwicklung noch anzuhalten oder wenigstens zu verlangsamen. Schon 1972 formulierte eine Studie des „Club of Rome“ die Warnung, dass die „Grenzen des Wachstums“ erreicht seien, aber auch jetzt, fast ein halbes Jahrhundert später, hat es die „Weltgemeinschaft“ noch nicht geschafft, die Fahrt des Zuges über eben jene Grenzen wenigsten zunverlangsamen.

Es zeigt sich immer wieder, dass auch das System „Mensch“ nur dann dauerhaft „funktionieren“ kann (ohne sich selbst zu zerstören, und das konnten die Menschen auch schon, als sie noch mit Faustkeilen aufeinander losgingen), wenn verselbständigte Prozesse in dessen Entwicklung nicht sich selbst überlassen bleiben, sondern von ethischen Vorgaben ausgerichtet und begrenzt werden. In der Bibel finden wir von Anfang des Menschseins an immer wieder solche Begrenzungen. Und wer jetzt sagt: Na, da sieht man‘s wieder, die biblischen Aussagen laufen eben immer auf Verbote hinaus, die die Freiheit der Menschen beschneiden wollen“, der hat nicht verstanden, worum es hier geht: Jede Ethik, z. B. das biblische GebotDu sollst (deinen Mitmenschen) nicht töten“, ist immer eine Begrenzung der Freiheit. Und jedes Wesen (ob Mensch oder Maschine), das selbstlernende, selbstoptimierende und selbstentscheidende Fähigkeiten entwickelt hat, ist ohne ethische Begrenzung (zumindest potenziell) ein mörderisches und selbstmörderisches Monster. Deshalb, um das Leben und das Zusammenleben aller Lebewesen zu bewahren, gibt Gott Gebote, also ethische Spielregeln für das „Spiel des Lebens“ auf dieser Erde. (Z. B. 1.Mose 2, 15 „Und Gott nahm den Menschen und setzte ihn in den Garten (die Biosphäre der Erde), ihn zu bebauen und zu bewahren“, oder die „Zehn Gebote“ (2. Mose 20, 2-17) und Mt 22: „Du sollst deinen Nächsten lieben wie dich selbst“).

Wir sehen heute deutlicher als früher, dass das System „Menschheit“ als Teilbereich des Systems „Leben“ nicht als autonomes System mit selbstlernenden, selbstoptimierenden und selbstentscheidenden Prozessen dauerhaft existieren kann. Irgendwann kommt der Zeitpunkt, wo die autonomen Systeme (Mensch oder Maschine) anfangen, die eigenen Lebensgrundlagen übermäßig auszubeuten und fortschreitend zu zerstören. Das gilt um so mehr jetzt im 21. Jahrhundert, wo Menschen nicht nur dabei sind ihre Lebensgrundlagen nach und nach zu zerstören, sondern wo sie auch die Waffensysteme haben, die ausreichen, alles Leben auf dieser Erde von einem Tag auf den anderen gänzlich und für immer auszulöschen.

Die Programmierung selbst-lernender, selbst-optimierender und selbst-entscheidender Systeme bestimmt, in welchem Rahmen und in welche Richtung sich solche Vorgänge bewegen können und sollen. Damit kann und darf man die Programmierer/innen aber nicht allein lassen. Sie brauchen ethische Grundentscheidungen, die ihnen Richtung, Verantwortbarkeit und Grenzen für die Programmierung vorgeben. Ja mehr noch: Sie brauchen ein grundsätzliches Verständnis für das Wesentliche des Menschseins: Wer ist der Mensch und was soll und kann er/sie werden? Erst durch ethische Grundentscheidungen, die sich an der Grundbestimmung des Menschseins orientieren, können aus autonomen technischen Systemen dann verantwortete Systeme werden (siehe den folgenden Beitrag „verantwortete Intelligenz“).

Bodo Fiebig, künstliche Intelligenz Version 2021-4

© 2021 Herausgegeben im Selbstverlag, alle Rechte sind beim Verfasser.

Vervielfältigung, auch auszugsweise, Übersetzung, Einspeicherung und Verarbeitung in elektronischen Systemen und jede Form von kommerzieller Verwertung nur mit schriftlicher Genehmigung des Verfassers

Alle Beiträge zum Thema "Natürliche und künstliche Intelligenz"