Bereich: B Herausforderungen der Gegenwart

Thema: Natürliche und künstliche Intelligenz

Beitrag 5: Autonome Systeme (Bodo Fiebig21. Februar 2023)

Wenn also Systeme mit „künstlicher Intelligenz“ so angelegt sind, dass sie ähnlich vorgehen, wie es die Entstehungs-Geschichte menschlicher Intelligenz vorgibt (siehe Beiträge 1, 2 und 3 zur „natürlichen Intelligenz“), dann können wir an den uns vertrauten menschlichen Fähigkeiten ablesen, in welcher Weise die (für die meisten Menschen sehr abstrakten und unzugänglichen) Computersysteme mit „künstlicher Intelligenz“ heute arbeiten. Menschen sind (von der Sichtweise der Datensysteme her betrachtet) hochkomplexe und integrierte selbstlernende, selbstoptimierende und selbstentscheidende Datenverarbeitungs-Systeme. Und so können wir auch technische Systeme mit künstlicher Intelligenz anschauen und verstehen.

Autonome Systeme werden sie dann, wenn die Entwicklungsabläufe und Ergebnisse in den selbstlernenden, selbstoptimierenden und selbstentscheidenden Teilbereichen nicht mehr von denen, die diese Systeme in Gang gesetzt haben, kontrolliert werden oder nicht mehr kontrolliert werden können.

Ein Beispiel für ein autonomes System (das kurz vor der Verwirklichung steht) wäre ein selbstlenkendes Auto, das mit einer Unmenge an Sensoren bestückt ist, die z. B. die Straßenverhältnisse, die Verkehrssituation, das Wetter usw. erfassen und an einen zentralen Computer schicken, der dann aus der Riesenfülle von Daten in jeder Sekunde die optimalen Handlungsanweisungen berechnet und die Funktionen des Autos steuert. Noch laufen solche automatisierten Vorgänge der Wahrnehmung, Berechnung und Steuerung nicht optimal, werden aber bald so weit sein, dass sie besser als jeder menschliche Fahrer funktionieren und die Menschen gut beraten sind, wenn sie nicht in die intelligente Steuerung der künstlichen Systeme eingreifen.

Das wäre beim autonomen Fahrzeug wenig problematisch, denn es ist ja (so ist das jedenfalls vorgesehen) immer noch der Mensch, der das Ziel der Fahrt festlegt und der auch in die automatisierten Vorgänge eingreifen könnte. Aber es gibt auch jetzt schon Anwendungen von künstlicher Intelligenz in autonomen Systemen, die in das Leben von Menschen eingreifen, ohne dass die Betroffenen die Möglichkeit haben, das zu durchschauen und eventuell sich zu wehren.

Nehmen wir ein einfaches Beispiel: Wenn eine Autoversicherung auf Grund ihrer Kundendaten, ihrer Versicherungsleistungen und allgemein zugänglicher Marktdaten, herausfindet, dass Menschen, die in einer bestimmten Region wohnen und Anhänger eines bestimmten Fußball-Bundesliga-Vereins sind, überdurchschnittlich oft Unfälle verursachen, so könnte sie von all denen, auf die diese Merkmale zutreffen (auch wenn ja die meisten von ihnen persönlich gar keine Unfälle verursacht haben), erhöhte Versicherungsprämien verlangen (in Wirklichkeit kamen die erhöhten Unfallzahlen daher, dass die Zufahrtsstraßen zum Stadion lange Zeit wegen Bauarbeiten gesperrt waren und die Umleitungen durch ohnehin schon belastete Straßen zu chaotischen Verkehrssituationen führten, aber diese Information hatte das Analysesystem nicht). Die betroffenen Kunden wären durch eine solche „Strafprämie“ benachteiligt und außerdem von dem Vorwurf belastet, dass Fußball-Fans schlechte Autofahrer wären. Das würde zwar das Leben der Betroffenen nicht direkt bedrohen, das Zusammenleben aber schon, denn jede Ungerechtigkeit oder falsche Diskriminierung gefährdet auf Dauer das friedliche Miteinander der Menschen. Trotzdem wäre das ein relativ harmloser Fall. Andere sind bedenklicher:

Schon jetzt sind Milliarden von Menschen abhängig von Entscheidungen, die von Maschinen getroffen werden (z. B. wenn es darum geht, ob jemand bei der Bank einen Kredit bekommt oder nicht, ob er einen Handy-Vertrag abschließen kann, ob jemand eine bestimmte Arbeitsstelle bekommt usw. usw.) Solche automatisierten Maschinen-Entscheidungen könnten auf alle Bereiche menschlichen Lebens und Zusammenlebens ausgeweitet werden und wir sehen: Autonome Systeme mit der Fähigkeit selbstlernende, selbstoptimierende und selbstentscheidende Prozesse immer weiter voranzutreiben ohne ethische Verantwortung und Begrenzung, wären Menschheits-gefährdend. Denn (ich wiederhole es) zu meinen, Systeme mit künstlicher Intelligenz wären wertneutral und damit gerechter als menschliche Entscheidungen, wäre geradezu sträflich naiv.

Noch viel atemberaubender wäre die Vorstellung, die „Geheime Staatspolizei“ (Gestapo) im sog. „Dritten Reich“ in Deutschland (1933-1945) hätte über alle Möglichkeiten der Überwachung verfügt, die „künstliche Intelligenz“ heute zur Verfügung stellt. Man stelle sich z. B. vor, die Computer-Systeme der Gestapo hätten (durch den Abgleich riesiger Datenmengen über jeden Menschen in ihrem Machtbereich) herausgefunden, dass Menschen mit Hochschulbildung, kirchlicher Bindung und hohem ethischen Selbstverständnis (wie es etwa auf Hans und Sophie Scholl zutraf) häufiger als andere Bürger kritische Einstellungen zum Nationalsozialismus hätten. Wieviele Tausende wären allein auf Grund einer solchen Zuordnung im KZ gelandet und dort umgekommen? Selbst die geheimsten und bescheidensten Ansätze von Widerstand wären innerhalb von Tagen aufgeflogen und das System der „Gleichschaltung“ wäre in nie gekannter Weise perfektioniert worden (so wie es ja tatsächlich in einigen Ländern in unserer Gegenwart geschieht).

Eine weitere Stufe der Gefährdung durch „autonome Systeme“ wäre dann erreicht, wenn die technischen Mittel nicht nur missbraucht und zur Unterdrückung unliebsamer „Feinde“ eingesetzt würden, sondern wenn die Systeme ganz aus der Verantwortung von Menschen entlassen würden. Diese Verantwortung an die Maschinen abzugeben, wäre etwa vergleichbar mit der Vorgehensweise einer Raketenbesatzung, die, um einen neuen Geschwindigkeitsrekord im Weltall aufzustellen, einen extra starken Antrieb zündet, ohne zu wissen, wohin die Rakete sie dann tragen wird und ob sie je zurückkehren könnten.

Freilich, wenn man so etwas verhindern will, muss man schon beim (noch relativ harmlosen) Beispiel der Autoversicherung (siehe oben) ansetzen und solche belastenden Zuordnungen verhindern, damit es nicht (später) zu den Extremformen von computergestützten Überwachungssystemen und der grundsätzlichen Abhängigkeit der Menschen von Vorgaben und Entscheidungen ihrer eigenen „Geschöpfe“ kommt. Denn wenn die einmal etabliert sind, wäre jeder Versuch sie zu überwinden, ein lebensgefährliches und (fast) aussichtsloses Unternehmen.

Die Geschichte der Menschheit (mit allen ihren Ungerechtigkeiten, Gewalttaten und Kriegen und noch lange vor der Entwicklung von KI) zeigt uns: Das  „Schöpfungsprodukt“ Mensch kann nicht dauerhaft als ein sich selbst und seinen internen Entwicklungsmöglichkeiten überlassenes autonomes System existieren, sondern nur als ein verantwortetes System mit einer ethischen Grundausrichtung (Darauf wird in den Beiträgen 7+8 „Verantwortete Intelligenz“ und 8+10 „Biblische Perspektiven“ noch näher eingegangen). Und nur als solches „verantwortetes System“ ist die Menschheit gegenwärtig und erst recht zukünftig lebens- und überlebensfähig.

Das Gleiche gilt auch für Systeme mit künstlicher Intelligenz: In den Beiträgen zu „verantworteter Intelligenz“ soll aufgezeigt werden, wie aus autonomen technischen Systemen mit KI „verantwortete Intelligenz“ werden kann und im Beiträgen zu „biblische Perspektiven“ soll dargestellt werden, auf welcher Grundlage das möglich wäre.

Zunächst aber werden hier Teilbereiche von „autonomen Systemen“ vereinfacht dargestellt:

1 Teilbereiche autonomer Systeme

Wir haben im Beitrag 1.2 „Prozesse im Bereich von (natürlicher) Intelligenz“ beschrieben: Wahrnehmen und empfinden, verarbeiten und speichern, handeln und gestalten. Bei der Entstehung von „künstlicher Intelligenz“ spielen ähnliche Vorgänge eine entscheidende Rolle.

Menschen brauchen (wie Computer) zum Denken eine Datenbasis, die bekommen sie von den Wahrnehmungen ihrer Sinnesorgane (Sensoren), aber auch von „Dateneingaben“, deren Inhalte nicht aus eigenen Wahrnehmungen stammen (z. B. durch Bücher, Gespräche, Vorträge, Zeitungsartikel, Fernsehnachrichten, Filme, Wikipedia-Einträge usw.). Durch die Verarbeitung solcher Daten, durch Rückkopplungseffekte und Mustererkennung … und vor allem durch Kommunikation von Informationen und Erfahrungen entstehen Lernprozesse, die sich immer weiter entfalten und deren Ergebnisse selbst wieder zu neuen weiterführenden Daten werden, so dass das Ganze (der Mensch als Einzelner und als Gemeinschaft) zu einem selbstlernenden System wird.

Dabei geschieht aber nicht nur eine immer weitergehende Anhäufung von gespeicherten Inhalten (also eine wachsende Quantität von Daten), sondern auch eine gesteigerte Qualität des Verständnisses von Verhältnissen und Vorgängen, von Zusammenhängen und Begründungen, das immer neue Erkenntnisse ermöglicht. Unser (menschliches) „Wissen“ besteht aus „Daten mit Bedeutung“, aus geordneten, verknüpften, reflektierten und interpretierten Daten. Eine sich selbst erweiternde Datenbasis (aus Erfahrungen und Kommunikation und deren Einordnung und Bewertung), zusammen mit Lerneffekten (siehe Abschnitt „der Kreislauf des Lernens“ im Beitrag „Erweiterung menschlicher Möglichkeiten“) und mit einer Datenverarbeitung, die sich immer wieder an “Messwerten“ (Beobachtungen) rückkoppelt und an Zielwerten (Wünschen, Absichten Hoffnungen) orientiert – so wird menschliches Denken (ebenso wie maschinelle Datenverarbeitung) zu einem selbstoptimierenden System.

Schließlich eröffnen die selbstlernenden und selbstoptimierenden Systeme des Menschseins (wie auch die von Computersystemen mit künstlicher Intelligenz) auch die Möglichkeit, zwischen verschiedenen Verhaltens-Optionen und Handlungsalternativen zu wählen und die möglichen Folgen solcher Optionen und Alternativen zu vergleichen und abzuwägen. So wird wird das Denken von Menschen (und Maschinen) auch ein selbstentscheidendes System, das begründet handeln, bewusst gestalten und autonom entscheiden kann.

Menschen sind (von der Sichtweise der Datensysteme her betrachtet) hochkomplexe und integrierte selbstlernende, selbstoptimierende und selbstentscheidende Daten-Systeme). Gewiss: Menschen sind mehr als das, aber sie haben eben auch Eigenschaften, die mit modernen computergestützten Datensystemen vergleichbar sind.

Wir stellen fest: Die gleichen Teilsysteme wie bei menschlicher Intelligenz finden sich auch in Systemen mit computergestützter „künstlicher Intelligenz“:

Selbstlernende Systeme, also Systeme, die aus Datenvorgaben bestimmte Muster erkennen und davon statistische Wahrscheinlichkeiten ableiten und die aus ihren Ergebnissen (die nun selbst wieder zu Datengrundlagen werden) zusammen mit neuen externen Daten immer neue Lernprozesse in Gang setzen.

Selbstoptimierende Systeme, also Systeme, die aus den Rückmeldungen der Datenverarbeitung im Vergleich mit Zielvorgaben ihre Strategien und Vorgehensweisen selbständig so verändern, dass sich die Ergebnisse den Vorgaben annähern. Wobei die Zielvorgaben einen Endpunkt beschreiben können („diesen Wert wollen wir erreichen“), bei dessen Erreichen der Prozess beendet wird oder auch offene Zielbeschreibungen enthalten (schneller, weiter, mehr …), die (theoretisch) unbegrenzt weitergehen könnten (oder erst von der Endlichkeit der Ressourcen begrenzt wären).

Selbstentscheidende Systeme, also Systeme, die im aktuellen Einsatz ohne das Zutun von Menschen aus ihren Berechnungen Konsequenzen ableiten und diese unmittelbar in konkrete Entscheidungen umwandeln, die dann auch konkrete Auswirkungen in der „realen Welt“ haben.

Diese drei Systeme können ineinander greifen, ja zu einem einzigen Gesamt-System integriert werden, das selbständig lernt, das die Fähigkeit hat, die eigenen Vorgehensweisen und die Datengrundlagen dafür selbst zu optimieren und schließlich Entscheidungen zu treffen (wie das ja bei Menschen schon immer der Fall ist), in Prozessen, die aber dann möglicherweise nicht mehr von Menschen kontrolliert werden können (z. B. weil die Datengrundlagen und die Verarbeitungsprozesse so umfangreich und komplex werden, dass sie für Menschen nicht mehr überschaubar wären und die Vorgehensweisen für die Optimierung dieser Prozesse nicht mehr nachvollziehbar sind).

Hier geht es zum ersten Mal nicht mehr um die (immer begrenzte) Erweiterung und Steigerung von menschlichen Fähigkeiten (siehe den Beitrag „Erweiterung menschlicher Fähigkeiten“), sondern um Eigenschaften, Funktionsweisen und Potenziale, die grundsätzlich über das Menschen-Mögliche hinausgehen können. Dabei entsteht zum ersten Mal die Gefahr, dass Menschen die Kontrolle verlieren über die Entwicklung und die Ergebnisse von Prozessen, die von ihnen selbst eingerichtet und in Gang gesetzt wurden und dass sie damit die Verantwortung für ihre eigenen „Geschöpfe“ aus der Hand geben. Das liegt daran, dass Systeme mit „künstlicher Intelligenz“ etwas können, was bisher nur Lebewesen vorbehalten war: Selbständig etwas zu lernen, dabei das eigene Denk-System und die entsprechenden Denk-Vorgänge selbständig weiterzuentwickeln und schließlich im Rahmen solcher erworbenen Fähigkeiten selbständige Entscheidungen (manchmal auch Fehlentscheidungen) zu treffen.

Autonome Systeme mit künstlicher Intelligenz sind selbstlernende, selbstoptimierende und selbst-entscheidende, Systeme, die, einmal in Gang gesetzt, Entwicklungen vollziehen und Ergebnisse hervorbringen können, die von den Menschen, die sie in Gang gesetzt haben möglicherweise nicht mehr kontrolliert werden können. Das soll im folgenden Abschnitt an einem Beispiel dargestellt werden.

2 Kontrollierbarkeit autonomer Systeme

Ich will versuchen, die Wirkungsweise (und möglicherweise auch Gefahrenquelle) selbstlernender, selbstoptimierender und selbstentscheidender Systeme an einem sehr vereinfachten fiktiven Beispiel darzustellen. Nehmen wir an: In einer Weltgegend, wo die Verhältnisse zwischen Staaten, Gesellschaften, Kulturen, Religionen, Volksgruppen … oft sehr spannungsvoll sind, kommt es in einer politisch kontroversen Situation zu einem Grenzstreit, der sich jederzeit in Form von kriegerischen Aktionen verschärfen könnte. Auf beiden Seiten der Grenze werden militärische Einheiten konzentriert, aber noch hält der Waffenstillstand. Auf beiden Seiten sind die Streitkräfte mit modernen Waffensystemen ausgestattet. Beide Seiten verfügen über unbemannte, aber bewaffnete Kampfdrohnen, mit denen sie ihren Luftraum verteidigen wollen. Diese Drohnen sind auf beiden Seiten der Stolz der Militärs, weil sie mit modernsten Computersystemen ausgestattet sind, die schneller und effektiver die Lage beurteilen und optimale Entscheidungen treffen können als das je ein Mensch könnte.

Jahrelang wurde von den fähigsten Experten an diesen Systemen gearbeitet. Künstliche Intelligenz sollte sie im Ernstfall optimal einsetzbar machen. Ein Offizier der Grenztruppen erklärt uns die Zusammenhänge (wobei er selbstverständlich nicht auf geheime militärische Details eingeht):

„Wir haben hier die neueste Generation von autonom aktiven Drohnen, deren Computersysteme in der Lage sind, selbständig ihre Datenbasis zu erweitern, ihre Arbeitsweise selbständig zu optimieren und autonom Entscheidungen zu fällen und auszuführen.“

Der Offizier unterbricht sich kurz, offensichtlich um zu überlegen, wieviel interne Details er weitergeben dürfte und fährt dann fort:

„Dafür mussten die Bordcomputer erst einmal mit Daten versorgt werden. Ihre geografischen Erkennungssysteme wurden zuerst mit Satelliten-Daten „gefüttert“. Dann wurden die Drohnen mehrmals nachts heimlich zu unbewaffneten Erkundungsflügen gestartet, wo die selbstlernenden Systeme die dabei gewonnenen aktuellen Daten mit den gespeicherten vergleichen mussten, um Veränderungen festzustellen und Entwicklungen vorausberechnen zu können. Jetzt sind die Systeme soweit trainiert, dass sie sich im ganzen Einsatzgebiet optimal orientieren können und dass sie bei Tag oder bei Nacht und bei jedem Wetter allein und ohne Hilfe der Basisstation jedes beliebige Ziel zuverlässig ansteuern können, dass sie Veränderungen in der Geografie und der Bebauung selbständig wahrnehmen und einordnen können, ja, dass sie sogar bei beweglichen Zielen relativ genau voraussagen können, wo die sich zu einer bestimmten Zeit befinden werden.“

Man kann an der Stimme und der Körperhaltung des Offiziers ablesen, wie stolz er auf diese Errungenschaften ist.

„Als Nächstes mussten die selbst-optimierenden Systeme auf alle möglichen Entscheidungs-Situationen vorbereitet werden. Die Systeme sollen z. B. selbständig zwischen Freund und Feind unterscheiden können. Dazu mussten die verschiedenen Erkennungsmerkmale operationalisiert und für die verschiedensten Umweltsituationen optimiert werden. Freilich, eine 100-prozentige Erkennungsquote war nicht zu erreichen. So legte man fest, dass eine mindestens 90-prozentige Sicherheit gegeben sein musste, bevor die Systeme in der Realität zum Einsatz kommen dürfen. Diese 90 Prozent sind jetzt erreicht (manchmal sogar schon überschritten), weil die Systeme daraufhin optimiert wurden, aus Riesenmengen von Einzel-Daten bestimmte Muster zu erkennen, anhand derer sie ihre Erkennungsraten immer weiter verbessern konnten. Jetzt haben die selbst-optimierenden Systeme sogar schon die Fähigkeit entwickelt, anhand bestimmter Bewegungsmuster und Aktivitäten von Personen oder Personen-Gruppen zu erkennen, ob diese mit großer Wahrscheinlichkeit eher zustimmende oder ablehnende Einstellungen gegenüber der Regierungspolitik haben. Noch allerdings sind da die Trefferquoten zu gering, um daraus gezielte Operationen abzuleiten. Da müssen die vom Militär gewonnenen Erkenntnisse noch mit zusätzliche Daten aus dem Privatbereich der Personen zusammengeführt werden. Aber in naher Zukunft werden die selbst-optimierenden Systeme der Drohnen in der Lage sein, bei wesentlich verbesserter Treffer-Quote heimliche Gesinnungsfeinde aus der Luft zu identifizieren und, wenn nötig, zu eliminieren.“

An dieser Stelle hatte man den Eindruck, dass der Offizier selbst ein wenig erschrocken war, weil er mit seiner Bemerkung ein Zukunftsprojekt seiner Armeeführung verraten haben könnte. Dann aber fuhr er fort:

„Schließlich mussten die selbst-entscheidenden Systeme für den Einsatz vorbereitet werden. Die selbst-lernenden und selbst-optimierenden Systeme arbeiten ja so schnell und so effektiv, dass jeder menschliche Eingriff oder Vorbehalt die elektronischen Systeme entscheidend langsamer und unpräziser machen würde. Schließlich arbeitet die anderen Seite ebenfalls an Drohnen mit künstlicher Intelligenz und noch haben wir einen kleinen Vorsprung, den wir nicht verspielen wollen. Und dazu müssen unsere Systeme schneller zu sicheren Entscheidungen kommen, als die unserer Feinde. Allerdings will ich mit Nachdruck darauf hinweisen, dass wir in unsere Entscheidungssysteme bewusst humane Überlegungen mit einfließen lassen. So haben wir z. B. festgelegt, dass die Systeme normalerweise einen bewaffneten Angriff dann nicht automatisch auslösen dürfen, wenn mehr als 10 unbeteiligte Zivilisten dabei um Leben kommen würden (es sei denn, dass wichtige militärische Interessen dafür sprächen, es dennoch zuzulassen). Auch sollten Angriffe nicht gestartet werden, wenn der zu erwartende Schaden (durch vorhersehbare Reaktionen der Feinde) für uns selbst größer wäre als der absehbare Nutzen (z. B. durch Ausschaltung feindlicher Anlagen und Human-Ressourcen).

Dabei müssen die Entscheidungssysteme immer eine große Bandbreite von militärischen, politischen, finanziellen, wirtschaftlichen, humanen … Vorgaben, Bedingungen und Folgen mit einrechnen, bevor sie den Feuerbefehl geben. Kein Mensch und kein militärischer Stab wäre je in der Lage, alle diese Abwägungen notfalls innerhalb von Sekunden-Bruchteilen durchzuführen und zu einer allseits begründeten Entscheidung zu kommen.

Sie sehen, wir tun wirklich alles, um subjektives Versagen einzelner Menschen auszuschließen, die in einer angespannten Situation mit unüberlegte Handlungen unabsehbare Folgen auslösen könnten“

Damit schließt der Offizier seine Erklärungen ab, grüßt kurz und knapp und entlässt seine Gäste mit einer entsprechenden Handbewegung.

Spätere Anmerkung: Tatsächlich kam es in der darauffolgenden Nacht zu einer Situation an der Grenze, die sich unerwartet dramatisch verschärfte, so dass es auf beiden Seiten zum Einsatz computergesteuerter Drohnen kam. Daraus entstand (durch weitere, ebenfalls autonom entscheidende militärische Systeme gesteuert) eine mehrere Monate andauernde kriegerische Auseinandersetzung, der (auf beiden Seiten zusammengerechnet) mehr als zweihunderttausend Menschen zum Opfer fielen. Erst nach Ende der Kriegshandlungen wurde bekannt, dass (schon zwei Wochen vor dem ersten Angriff!) die Regierungen beider Länder bei Geheimverhandlungen eine weitgehende militärische Deeskalation und Entmilitarisierung an der Grenze beschlossen hatten. Die Kommandanten der Militäreinheiten an der Grenze waren schon informiert, nicht aber die Programmierer der autonomen Systeme. So gab es niemand, der das Unheil noch aufhalten konnte.

Die Geschichte der Jahrhunderte zeigt uns: Die militärische Nutzung neuer Technologien war schon immer der Treiber technischer Entwicklungen (als man begann, Burgen zu bauen, erfand man Belagerungsmaschinen und später Kanonen, denen auch die stärksten Mauern nicht standhalten konnten, und die Atombombe wurde zuerst gebaut, nicht das Atomkraftwerk). Aber: Der Missbrauch von künstlicher Intelligenz für militärische Zwecke ist nur eine Seite der Gefahr (es gibt noch viele andere). Eine zweite, die hier angedeutet werden soll, ist ihr Missbrauch zum Zweck der „Operationalisierung des Glücks

3 Die Operationalisierung des Glücks

Mit „Operationalisierung“ meine ich hier einen Vorgang, durch den ein abstrakter Begriff wie „Glück“ so „handhabbar“ gemacht wird (in Arbeitsschritte, Messverfahren, Auswertungskriterien usw. zerlegt), dass man Verfahren entwickeln kann, mit denen man das, was man (in diesem Falle) mit „Glück“ meint, messen und gegebenenfalls verändern und vervollkommnen kann. (Unter „Glück“ verstehen die meisten Menschen eine Art „Hochgestimmtheit“ durch Befriedigung aller Bedürfnisse und Zufriedenheit mit den jeweils gegenwärtigen Zuständen, Vorgängen und Beziehungen.) Aber, kann man „Glück“ operationalisieren? Ja, man kann. Aus umfassenden Datensätzen von Millionen oder Milliarden von Menschen kann man mit Hilfe von künstlicher Intelligenz aus den bevorzugten Verhaltensweisen, Aktivitäten, Wünschen, Neigungen, Antrieben … ableiten, was Menschen jeweils um eine winzige Spur „glücklicher“ macht. Optimal kombiniert und jeweils auf ein bestimmtes Individuum passgenau zugeschnitten, kann dann so eine Anwendung (App) Menschen auf eine Lebensweise ständig optimierter Glückserfüllung hin trainieren.

Na also, das wäre doch mal eine wirklich menschenfreundliche Anwendung von KI: Jeder Mensch ein glücklicher Mensch!“ Aber, haben wir das wahrgenommen? Hier trainieren ja nicht Menschen ihre Computersysteme für eine effektive Nutzung, sondern die Systeme trainieren „ihre Menschen“ für eine effektive Nutzung! Und haben wir nicht auch manchmal den Eindruck, dass die uns von den Daten-Giganten so freundlich zur Verfügung gestellten „Apps“ genau das beabsichtigen: Uns zu möglichst effektiven „Nutzern“ (d. h. zu möglichst umfassenden Datenlieferanden) zu trainieren (entsprechend der „Erfolgs-Formel des 21. Jahrhunderts“ Geld+Daten = Macht)? Und diese Vor-Gänge sind im vollen Gang. Wie unglücklich wären denn Millionen von „Usern“, wenn sie bestimmte Programme, vor allem im Bereich „social media“, nicht mehr kostenlos nutzen könnten?  Nun stellen wir uns einmal vor, so ein „glücklicher“ Mensch würde der Gefahr ausgesetzt, dass er durch ein bestimmtes, „abweichendes“ Verhalten ein kleines Stückchen seines umfassenden Glücks verlieren könnte. Würde er nicht alles (oder fast alles) tun, um sein (gewohntes und vertrautes) Glück wieder zu vervollkommnen?

Die „Operationalisierung des Glücks“ ist gewiss keine Gefährdung des Lebens von Millionen Menschen (so wie -siehe oben – der Missbrauch von künstlicher Intelligenz für militärische Zwecke), aber sie wäre eine Gefährdung der Menschenwürde des Menschseins möglicherweise für Milliarden. Schon jetzt folgen Milliarden von Menschen den faszinierenden Angeboten von digitalisierter Spielerei, Unterhaltung, Information, Kommunikation …, die nicht  für die Bedürfnisse der Menschen eingerichtet sind (wie die Konsumenten es empfinden sollen) sondern für die Bedürfnisse der Daten-Giganten, die damit ihre Geschäftsgrundlagen (durch immer umfangreichere und genauere Daten  über jeden Menschen) und damit auch ihre Macht-Basis vervollkommnen wollen.

So könnte es sein, dass es schon in absehbarer Zukunft nicht mehr wirklich wichtig sein könnte, ob ein Mensch in einem demokratischen Staat lebt oder in einer ideologisch ausgerichteten Diktatur und zwar deshalb, weil die entscheidenden Weichenstellungen für die gesellschaftlichen Realitäten da wie dort und weltweit überall von den gleichen Kräften bewegt würden. Die Lebensweisen der Menschen würde dann (unabhängig von jeder staatlichen Verfassung) von denen bestimmt, die allein alle Daten von allen Menschen haben (und die entsprechenden Techniken), um von (weltweit) allen Menschen immer genauer jedes Detail ihres Lebens und ihrer Einstellungen zu kennen und ihr Verhalten immer effektiver zu steuern. Nein, nicht mit Gewalt, sondern durch fast unmerkliche Impulse (nudging), die aber in ihrer Gesamtheit effektiver sind als einzelne Gewaltakte.

Vielleicht würden die Daten-Giganten dann die jeweils nötigen Teile ihrer Daten-Sammlungen, dazu das jeweils nötige „Know-how“ und die jeweils nötigen technischen Systeme an einen demokratischen Staat ebenso vermieten wie an eine ideologisch ausgerichtete Diktatur und die gewaltigen Summen, die sie dafür kassieren würden, könnten ihre technischen Systeme und ihre globale Vormacht noch weiter perfektionieren. Die „Herren der Daten“ würden die jeweiligen lokalen „Herrscher“ im Innern ihres jeweiligen Machtbereichs weiter herrschen lassen (diktatorisch oder demokratisch – egal, solange sie ihre Lizenzgebühren bezahlen). Aufs Ganze gesehen aber hätten sie, die „Welt-Daten-Könige“ (oder wären sie schon „Welt-Daten-Götter“?), alle Macht in ihren Händen, denn sie allein beherrschen die Systeme, die dann jede Form von konkreter Herrschaft überhaupt erst möglich machen.

Und sie würden ihren „Lizenznehmern“ (demokratisch oder diktatorisch – egal) klar machen, dass sie ihren Untertanen „das große Versprechen vom großen Glück“ machen müssen, damit das System funktioniert (natürlich nicht für jene „Abweichler“, die, im Falle einer Diktatur, in ihren Konzentrationslagern und Folterkellern schmachten, aber doch für die großen Mehrheit, die man z. B. auch in einer schein-demokratischen Wahl braucht).

Und sie, die Daten-Götter würden dann das große Glück liefern, jedem Einzelnen ganz individuell zugeschnitten auf die eigenen persönlichen Wünsche und Vorlieben, Ängste und Befürchtungen, Triebe und Süchte, Sehnsüchte und Hoffnungen …, die sie besser kennen als jeder Einzelne selbst (vgl. den Beitrag „Leben aus zweiter Hand“ im Bereich „mitreden“, im Thema „gefährliche Entwicklungen“, dort wird, ein wenig überzeichnet, eine solcher „Glückszustand“ beschrieben).

Und vielleicht hätten es dann die Diktatoren gar nicht mehr nötig, Andersdenkende in Konzentrationslagern und Folterkellern schmachten zu lassen, weil es dann gar keine Andersdenkenden mehr geben kann im großen Glück, das für jeden (und auch für die vermeintlichen „Abweichler“) die genau auf sie zugeschnittenen Glücksmomente bereithält, in Form von begeisternder Unterhaltung, von geistig herausforderndem Spiel und körperlich herausforderndem Sport und (fast) unbegrenzten Konsum.

Die „Operationalisierung des Glücks“ scheint die große Zukunftsaufgabe künstlicher Intelligenz zu werden: Wie kann man aus der immer umfangreicheren und detaillierteren Daten-Basis für jeden Menschen auf der Erde Algorithmen entwickeln, die für jeden Einzelnen genau jene Inhalte, Ereignisse und Aktivitäten errechnen, die ihm/ihr jeweils und zu jeder Zeit optimale Glücks-Erlebnisse bescheren? Multiprofessionelle Teams von Informatikern, Technikern, Neurologen, Psychologen, Soziologen, Ökonomen … arbeiten daran.

Alle Beiträge zum Thema "Natürliche und künstliche Intelligenz"


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert