Bereich: B Herausforderungen der Gegenwart

Thema: Natürliche und künstliche Intelligenz

Beitrag 8: Verantwortete Intelligenz 1: Humane Technik (Bodo Fiebig21. Februar 2023)

„Intelligenz (ob natürliche oder künstliche) ist immer auch verantwortliche Intelligenz, denn sie hat grundsätzlich auch die Möglichkeit der Entscheidung.“ Das ist jetzt, im 21. Jahrhundert, eine umstrittene Aussage. Ich zitiere hier aus einem Abschnitt des Buches „Homo Deus“ von Yuval Noah Harari (C. H. Beck-Verlag, 5. Auflage 2017): „Die elektrochemischen Abläufe im Gehirn (…) sind entweder deterministisch oder zufällig oder eine Mischung aus beidem – aber sie sind niemals frei. Wenn beispielsweise ein Neuron eine elektrische Ladung abfeuert, kann das entweder eine deterministische Reaktion auf äußere Reize oder das Ergebnis eines zufälligen Ereignisses, wie des spontanen Zerfalls eines radioaktiven Atoms sein. Keine dieser beiden Optionen lässt irgendeinen Raum für den freien Willen. (…) So weit wir heute wissen, haben Determinismus und Zufälligkeit den gesamten Kuchen unter sich aufgeteilt und der „Freiheit“ nicht einen Krümel übrig gelassen. Das heilige Wort „Freiheit“ erweist sich, genau so wie die „Seele“, als leerer Begriff, der keine erkennbare Bedeutung hat. Der freie Wille existiert nur in den imaginären Geschichten, die wir Menschen erfunden haben.“

Solche sehr selbstüberzeugten Aussagen über die Nicht-Existenz eines „freien Willens“ kann man zu Hauf finden. Man will die Verantwortung für sein Tun (und Nicht-Tun) loswerden, indem man sie zwangsläufigen Folgen aus vorangegangenen Entwicklungen und zufälligen Ereignissen in der Gegenwart (für die man ja nicht verantwortlich sein kann) anlastet. Hier kann ich nicht darauf eingehen (siehe dazu die Themen „Freiheit“ und „Wirklichkeit und Wahrheit“). Hier bleibe ich bei der sehr gut begründbaren Überzeugung: Ja, es gibt einen „freien Willen“ und wir Menschen sind (im Rahmen unserer Möglichkeiten) verantwortlich für unser Verhalten, Reden und Tun.

Wenn das so ist, hat das auch Konsequenzen für unseren Umgang mit künstlicher Intelligenz: Von Menschen in Gang gesetzte Systeme und Prozesse müssen immer als „verantwortete Systeme“ an ethische Bedingungen geknüpft sein. Welche ethischen Bedingungen, Begrenzungen und Zielausrichtungen das sein können, darüber wird zu reden sein (siehe dazu auch die Beiträge 9 und 10 zu „biblische Perspektiven“). Zunächst  geht es um die Frage, wie denn so eine „humane Technik“ aussehen könnte.

Es ist ja keineswegs schwieriger oder teurer, die technische Entwicklung so zu gestalten, dass sie dem Miteinander und Füreinander der Menschen und dem Frieden zwischen ihnen dient, statt der Versklavung des Menschen unter die Technik (bzw. unter den Willen derer, welche die Richtung der technischen Entwicklung bestimmen). Es ist eine Frage der Entscheidung für das Eine oder das Andere und damit auch eine Frage von Verantwortung und Schuld. Eine mögliche Versklavung der Menschen durch die zukünftigen Entwicklungen passiert nicht einfach so, sondern sie wäre, wenn sie denn käme, von bestimmten und benennbaren Menschen gewollt und gemacht und von ihnen zu verantworten. Wie aber könnte man die in Zukunft möglichen Potenziale von moderner Datenverarbeitung und künstlicher Intelligenz nutzen ohne ihren Gefahren zu erliegen? Zwei Handlungsfelder dafür sollen hier angedeutet werden, zunächst: „Humanisierung der Informationstechnologie“.

1 Humanisierung der Informationstechnologie

Ein kleines Kind, etwas weniger als ein Jahr alt, lernt laufen: Ein ungeheuer komplexer und vielschichtiger Vorgang. Das Kind muss sich aus dem „Krabbelgang“ aufrichten, ohne gleich wieder umzufallen. Dazu müssen hochkomplizierte Sensoren im Gleichgewichtsorgan des Innenohrs zusammengeschaltet werden mit Muskeln in den Beinen und im Rumpf, um jede Schieflage sofort durch entsprechende Gegenbewegungen ausgleichen zu können. Dann hebt das Kind für einen Augenblick das linke Bein, steht für diesen Augenblick nur auf dem rechten, ehe es das linke wieder aufsetzt und das rechte hebt. Eine ganze Folge komplexester Interaktionen zwischen verschiedensten Muskeln, dem Gleichgewichtsorgan, dem Auge …, die alle im Gehirn des Kindes aktiviert und koordiniert werden müssen! Und trotzdem vollzieht sie das Kind ohne Mühe und ohne sich der Komplexität des Vorgangs bewusst zu sein.

Was das mit Informations-Technologie zu tun hat? Ganz einfach, dieser Vorgang ist ein Beispiel dafür, wie Informationstechnologie funktionieren sollte: Hochkomplexe Vorgänge werden so „menschlich“ umgesetzt, dass ein kleines Kind sie vollziehen kann ohne viel dabei zu denken. So soll (und kann!) auch die moderne Datentechnik umgesetzt werden.

Dafür gibt es gute Beispiele: Am Anfang der Computer-Zeit (das ist ja erst ein paar Jahrzehnte her) musste man als Benutzer eines Computers noch für einfachste Vorgänge kryptische Zeichenfolgen als Befehle mit der Tastatur eingeben (z. B. bei MS-DOS). Diese Befehle musste man auswendig lernen und dann gehörte man zu den „Eingeweihten“, die wussten, wie man einen Computer bedient.

Jahre später gab es dann Programme mit „grafischer Benutzeroberfläche“. Man musste nun nicht mehr MS-DOS-Befehle lernen, sondern man hatte ein „Menü“ vor sich, dass alle möglichen Befehle sichtbar auf dem Bildschirm darstellte und man konnte die beabsichtigten Vorgänge durch anklicken von Menü-Einträgen in Gang setzen. Welch ein Fortschritt! Die Technik war den menschlichen Denk- und Arbeitsweisen ein gutes Stück angenähert worden.

Heute achtet man bei der Gestaltung von Programmen auf eine „intuitive Benutzerführung“, die sicherstellen soll, dass man die Programme ohne großen Aufwand zur Einarbeitung „einfach aus dem Gefühl heraus“ richtig bedienen kann. Wir sind also schon eine ganze Wegstrecke vorangekommen in dem Bestreben, Technik so zu gestalten, dass sie menschlichen Denkstrukturen, menschlichen Verstehensweisen und Arbeitsformen entgegenkommt.

In Zukunft wird man das noch durchgängiger und konsequenter tun müssen. Es kommt ja nicht darauf an, dass jeder Nutzer einer Technik alle Arbeitsschritte kennt und durchschaut, die im Innern eines technischen Gerätes ablaufen, um zu einem bestimmten Ergebnis zu kommen. Je unbefangener und intuitiver man mit Technik umgehen kann, desto besser. Aber gleichzeitig wäre es wichtig und unbedingt notwendig, dass alle Algorithmen eines Programms (und deren Datenbasis für die Anwendung) offengelegt und für Fachleute einsehbar und durchschaubar sind, damit nicht im Hintergrund Vorgänge ablaufen, die dann doch wieder die Entwürdigung und Versklavung des Menschen vorantreiben oder die schlimmstenfalls menschlicher Kontrolle ganz entgleiten könnten. (Siehe dazu den folgenden Beitrag „Ethisch verantwortete Technik“)

 

2 Entwicklung einer selbst-beschränkenden Ethik

Lauthals verkünden gegenwärtig angesehene und potente Institutionen das Ziel, mit den Mitteln der Medizin, der Genmanipulation und der Biotechnik den Tod und das Sterben endgültig zu überwinden. Google z. B. gründete 2013 extra das mit phantastischen finanziellen Ressourcen ausgestattete Tochterunternehmen „Calico“ mit dem Auftrag „den Tod zu beseitigen“. Schöne neue Welt? Nein. In Wirklichkeit ist dieses Vorhaben ein perverser Unsinn. Welche Folgen hätte es denn, wenn Google (und andere, die ähnliches vorhaben) Erfolg hätten?

Entweder, die dann vorhandene „Unsterblichkeits-Medizin“ stünde nur für einige wenige Millionäre oder Milliardäre zur Verfügung (und alle anderen müssten eben weiterhin sterben wie bisher) und dann wäre sie eine schlimmere Ungerechtigkeit als alles, was die Menschheit an Ungerechtigkeiten bisher entwickelt hat …

Oder die „Unsterblichkeit“ (bzw. Leben für vielleicht 500, 600 … Jahre) wäre für alle da und dann wären die Folgen noch schlimmer: Wenn kein Mensch mehr stirbt, würde sich die Weltbevölkerung explosionsartig vermehren und sie würde in kurzer Zeit an die Grenze stoßen, wo nicht mehr genug Nahrung, Wasser, Wohnraum, Kleidung, Verkehrsmittel usw. für alle zu beschaffen wäre, weil einfach die Ressourcen der Erde dazu nicht ausreichen. Die Menschen würden nicht mehr an Krankheiten und Altersschwäche sterben, sondern (wie schon vor Jahrhunderten) an Hunger und Durst.

Die einzige Alternative wäre dann: Es dürften, um die Weltbevölkerung stabil zu halten, keine Kinder mehr geboren werden. Das heißt, nach den ersten hundert Jahren der „unsterblichen Menschheit“ gäbe es nur noch Menschen, die mindestens hundert Jahre alt wären. Die Erde wäre ein riesiges Altersheim. Selbst wenn es gelänge, die „unsterblichen“ Alten körperlich jung aussehen zu lassen und sie fit für die Arbeit, Freizeitvergnügen und Sex zu halten, sie wären doch von ihren Erfahrungen und Einstellungen her uralt. Niemand würde mehr wissen, was ein „spielendes Kind“ ist oder ein „verliebter Teenager“. Die Alten wären unter sich. Aber: Wer würde gern in so einer Welt leben wollen, vielleicht sogar viele Jahrhunderte lang? (Eine Anmerkung: Selbstverständlich ist es richtig, auch weiterhin mit großem Einsatz und Engagement gegen den Krebs, gegen Infektionskrankheiten, gegen Alzheimer usw. anzukämpfen, aber die neuen technischen Heilsbringer wollen ja nicht die Krankheiten besiegen, sondern den Tod.)

Abgesehen von der Frage, ob das Bestreben, den Tod zu überwinden, wirklich zum Erfolg führen wird (vielleicht ist doch alles nur ein Ausdruck größenwahnsinniger Überheblichkeit), so bleibt doch das beklemmende Gefühl, dass die digitale Zukunft Entwicklungen ausbrüten könnte, die, wenn sie einmal in Gang gesetzt wären, nicht mehr rückgängig gemacht werden könnten, auch wenn sie sich nachträglich und immer deutlicher als schädlich, ja als Bedrohung für Freiheit und Menschenwürde entpuppen würden. Die Technik selbst kann keine Wertmaßstäbe entwickeln, nach denen sie gehandhabt werden soll. Wenn Menschen (fast) unsterblich würden, ohne dass ihr Zusammenleben von einer neuen Ethik der Mitmenschlichkeit getragen wäre, dann wäre die Verlängerung der Lebenszeit nicht mehr als eine Verlängerung von Lüge, Betrug, Feindschaft, Hass und Gewalt auf das Niveau von Jahrhunderten!

Notwendig (ja, im digitalen Zeitalter noch notwendiger als je zuvor) wäre die Entwicklung einer Menschheitsethik, die nicht danach strebt, alles zu verwirklichen, was möglich ist (vor allem dann, wenn es den „Machern“ Reichtum und Macht verspricht), sondern die darauf achtet, nur solche Projekte zu verwirklichen, die das Miteinander und Füreinander unter den Menschen fördern und den Frieden unter den Gruppen, Völkern, Kulturen, Religionen, Weltanschauungen … stärken. Eine solche selbst-beschränkende Ethik könnte allerdings nicht verordnet werden, sondern müsste aus eigener Verantwortung und Überzeugung der Menschen und Gemeinschaften und deren Verantwortlichen entstehen und weiterentwickelt werden.

Einige Grundprinzipien einer solchen „selbstbeschränkenden Ethik“ ließen sich schon heute benennen:

  • Ziel des Fortschritts ist nicht das, was machbar ist, sondern das, was gut ist für alle, die irgendwie damit zu tun haben (siehe das Thema „gut und böse“)
  • Erstrebenswert ist nicht vor allem eine zukünftige Verlängerung des Lebens, sondern eine gegenwärtige Vertiefung des Liebens (siehe das Thema „Zeit und Ewigkeit“)
  • Zukunftsweisend ist nicht die Perfektionierung der „Lebensumstände“ und, sondern die Intensivierung von Beziehungen zwischen Einzelnen und Gemeinschaften (siehe das Thema „AHaBaH – das Höchste ist lieben“)
  • Wichtig ist nicht eine endlose Vermehrung des Wissens, sondern eine neue Wertschätzung der Wahrheit (siehe das Thema „Wahrheit und Wirklichkeit“)
  • Grundlage für die zukünftige Lebensfähigkeit der Menschheit sind nicht Erfolg, Gewinn und Macht, sondern Offenheit, Güte und Treue (Siehe das Thema „Globalisierung“, Beitrag „Gemeinsame ethische Grundüberzeugungen“)

Es gäbe viele Beispiele, wo eine selbst-beschränkende Ethik notwendig, ja für die Menschheit und die Menschlichkeit überlebens-notwendig wäre. Nur ein Beispiel: Die Datentechnik und ihre Anwendungen sind meistens so angelegt, dass sie nach Vereinheitlichung und Konzentration drängen: Ein einziger Online-Händler, der in maßlosem Expansionsdrang alle anderen kleinen und großen Konkurrenten verdrängt, bis er schließlich allein die ganze Welt mit seinen Waren beliefert. Oder: Ein Kommunikationssystem, dem alle Menschen auf allen Kontinenten angeschlossen sind usw.

Vielfalt und die Verteilung von Verantwortung auf viele, ist eine Voraussetzung für Freiheit. Uniformität und Konzentration sind eine Voraussetzung für die Diktatur der Macht.

Eine sich selbst beschränkende ethische Grundlegung des Wollens und Tuns, die nicht nur danach fragt, was möglich ist, sondern auch danach, was gut ist, ist dann leichter zu verwirklichen, wenn möglichst viele Menschen nicht sich selbst und die eigenen Triebe und Wünsche absolut setzen, sondern sich bewusst sind, dass sie ihr Maß, ihre Mitte und ihr Ziel von einer Instanz haben, die nicht menschengemacht ist. Religiöse Menschen werden seltener einer maßlosen Selbsterhöhung und erst recht nicht einer Versklavung unter einer selbstgemachte Technik anheimfallen (siehe das folgende Kapitel „biblische Perspektiven“).

Freilich ist nicht jede Religion aus sich selbst schon ein Bollwerk gegen den versklavenden Zugriff der Technik und ihrer „Macher“. Auch die Zukunfts-Technologie selbst kann zur „Religion“ werden und ist dann in der Gefahr, absoluter zu glauben und radikaler vorzugehen als jede frühere Weltanschauung. „Dem Dataismus (der Datenreligion) zufolge besteht das Universum aus Datenströmen, und der Wert jedes Phänomens oder jedes Wesens bemisst sich nach seinem bzw. ihrem Beitrag zur Datenverarbeitung. Das mag manchem als extreme Außenseitermeinung erscheinen, doch im Wirklichkeit hat sie bereits einen Großteil des wissenschaftlichen Establishments erobert.“ (zitiert nach: Y. N. Harari „Homo Deus“, Kapitel 11 „Die Datenreligion“).

Ich persönlich halte die jüdisch-christliche Glaubenstradition am ehesten für geeignet, eine Ethik zu begründen, die zur Selbstbeschränkung anleitet (so weit es die technische Machbarkeit betrifft), aber zugleich zu einer Vertiefung und Erweiterung des Menschseins zu helfen (so weit es das Miteinander und Füreinander des Menschseins betrifft). Entscheidend ist, dass der biblische Glaube das Menschsein nicht auf sich selbst reduziert, sondern ihn auf eine Zukunft hin entwirft, die er sich nicht selbst schaffen muss, die aber ihn und sein Wollen und Tun auch in der Gegenwart zur Mitmenschlichkeit und zur Demut vor Gott verpflichtet (siehe das Thema „sein und sollen“).

.

3 Neuere Entwicklungen im Verhältnis natürlicher und künstlicher Intelligenz

Eine neuere Erscheinung auf dem (scheinbar fast unbegrenzten) „Markt der Möglichkeiten“ künstlicher Intelligenz sind Programm-Systeme (z. B. ChatGPT; es gibt aber noch weitere) die sekundenschnell selbstständig intelligente (und sachlich und sprachlich durchaus anspruchsvolle) Texte zu jeder beliebigen Inhalts-Vorgabe verfassen können, auch Fragen beantworten, Aufgaben lösen… Dazu werden solche Systeme an riesigen Datenmengen aus dem Internet trainiert, um sprachliche Zuordnungen und Muster zu lernen. Dann aber auch (zwar mengenmäßig begrenzt, aber doch  allgemein übertragbar) durch menschliche „KI-Lehrer“ korrigiert und auf zunehmende „Qualität“ der Aussagen geschult. Die Ergebnisse sind verblüffend gut und von Texten, die von „echten“ Menschen geschrieben wurden, kaum zu unterscheiden. Und schon befürchten Lehrer und Professoren, dass ihre Schüler und  Studenten sich ihre Hausaufgaben, Seminararbeiten, Doktorarbeiten … mühelos von solchen Systemen anfertigen lassen könnten.

Aber wie naiv sind wir denn, wenn wir annehmen, dass solche Systeme nur von faulen Schülern/Schülerinnen und überforderten Studenten/Studentinnen missbraucht werden könnten? Da könnten ja auch ganz andere und weit weniger harmlose „Nutzer“ im Spiel sein.

Fangen wir trotzdem  mit einem ganz „harmlosen“ Beispiel an: Ein Team von Sozial-Wissenschaftlern hat eine größere Umfrage zu einem bestimmten, in der Gesellschaft kontrovers diskutierten Thema gemacht, nun gibt es ihre Fragestellungen, Vorgehensweisen und Umfrageergebnisse in so ein System mit „KI“ ein, mit dem Auftrag, dazu alle relevanten früheren Forschungsergebnisse zu suchen, passendes Bild- und Grafik-Material zu finden (oder selbst zu erzeugen), deren Ergebnisse mit den eigenen zu vergleichen und daraus einen Beitrag für eine wissenschaftliche Fachzeitschrift zu generieren. Dann würde man am Schluss selbst noch mal den Text überprüfen, manches korrigieren und ergänzen und dann die fertige Arbeit vorlegen. So weit wäre das alles noch in einem vertretbaren Rahmen.

Wie wäre es aber, wenn z. B. ein Journalist (und nach und nach immer mehr) sich Kommentare zu politischen Streitfragen von künstlicher Intelligenz anfertigen ließe? Das würde seine Arbeit wesentlich beschleunigen (Journalisten arbeiten ja immer unter Zeitdruck) und erleichtern. Aber: Welche Positionen in einem weiten Spektrum von politischen Meinungen würde das System vertreten? (Dass KI-Systeme „Meinungs-neutral“ sein könnten, glauben nur noch Idealisten). Und würden sich diese Positionen (in massenhafter Anwendung des Systems) allmählich in einer „Meinungsblase“ verdichten, der man  kaum mehr entkommen könnte (weil die einzelnen Nutzer gar nicht mehr nachvollziehen könnten, wie diese Meinungen zustande gekommen sind)?

Vielleicht würde auch ein Politiker so ein KI-System als „Redenschreiber“ benutzen, um seine Reden immer aktuell auf den neuesten Stand zu halten (ohne zu merken, dass immer weniger er selbst die Inhalte der Reden vorgibt, sondern das System immer mehr die Inhalte seines Denkens bestimmt)?

Wobei wir ja davon ausgehen müssen, dass „Denkmaschinen“ mit künstlicher Intelligenz selbst keine eigenen Meinungen und erst recht keine emotionalen Vorlieben oder Abneigungen und keine heimliche Absichten haben können. Die „Maschinen“ nicht, aber die Menschen, die ihre Anwendungen programmiert und die Datenbasis dafür zubereitet haben haben (bzw. deren Auftraggeber), die schon.

Ich will das an einem einfachen Beispiel erklären: Mein Navigations-Gerät im Auto führt mich mit einer freundlichen Frauen-Stimme durch den Verkehr, und auch dann, wenn ich ihre Anweisungen ignoriere und ganz andere Wege fahre, wird sie niemals ärgerlich. Ich erlebe sie als sehr freundlich und mit sehr viel Nachsicht und Geduld. Das bedeutet aber nicht, dass mein „Navi“ selbst freundlich und geduldig wäre, sondern nur, dass es bewusst so programmiert wurde, dass bei mir eben dieser Eindruck entstehen soll (wir Menschen neigen offensichtlich unbewusst dazu, unsere zwischenmenschlichen Erfahrungen auf den Umgang mit „seelenlosen“ Denk-Maschinen zu übertragen. Diese Neigung, Maschinen mit „menschenähnlich“ erscheinenden Verhaltensweisen unbewusst noch stärker zu „vermenschlichen“, ist ein starker Hebel in den Händen von Mächten, die uns manipulieren wollen)

Noch sieht alles nach einer faszinierenden Spielerei aus, aber wir müssen uns das bewusst machen: Eine wertneutrale, ideologiefreie und gesellschaftlich folgenlose „Denk-Leistung“ gibt es nicht (sobald die massenhaft anwendbar und konsumierbar wird) und kann es nicht geben !

Dazu wieder ein vereinfachtes Beispiel: Mein „Navi“ könnte (wenn es so programmiert wäre) „lernen“, dass ich an einer bestimmten Stelle meines morgendlichen Berufsweges, anders als von ihm empfohlen (also im Sinne der Programmierung „falsch“) fahre. Es könnte daraufhin meine gesamte Fahr-Strecke so verändern, dass ich künftig gar nicht mehr an diese bestimmte Stelle kommen und ich so nicht mehr „falsch“ fahren könnte. So könnte mein Navi (und noch viel mehr ein System mit noch weiter fortgeschrittener „künstlicher Intelligenz“) mein Verhalten steuern in Richtung eines vorgegebenen „Wohlverhaltens“. Und das könnte so ein System mit KI täglich an tausenden kleinen und kleinsten Stelle und von mir selbst völlig unbemerkt tun und mich selbst zu einem außengesteuerten „Roboter“ machen (KI kann ja auch noch anderes, als nur Texte generieren).

Das wäre vor allem dann besonders kritisch, wenn hinter all diesen „Steuerungen“ (und genau so auch beim Generieren von Texten) nicht der Zufall am Werk wäre, sondern eine gemeinsame und übergeordnete „Idee“, die bestimmt, in welche „Richtung“ alle diese Steuerungen wirken sollen. Wieder am Beispiel des Navi: Es könnte in Zukunft alle meine Fahrten so steuern, dass dabei eine möglichst geringe CO2-Belastung entstünde. Das wäre dann eine sinnvolle und für mich auch einsichtige Steuerung. Wer sagt mir aber, dass die Steuerung von Menschen durch Systeme mit KI nicht noch ganz andere „Hintergrund-Ideen“ haben könnte, vielleicht sogar eine „Sinn-begründend verbundene Gesamtheit von Ideen“, also eine „Ideologie“, deren Ausrichtung uns auf eine vorgegebene Zielvorstellung hin orientieren und in Bewegung setzen will.

So eine „Ideologisierung“ von KI-Systemen könnte auf zweierlei Weise geschehen:

Erstens ungewollt: Einseitigkeiten in der Daten-Basis von KI-Systemen wie ChatGPT (z. B. durch die Bevorzugung von Trainings-Inhalten in englich-amerikanischer Sprache, die ja, wie jede andere Sprache auch, in sich schon eine bestimmte „Weltsicht“ transportiert) oder auch durch die Tatsache, dass diese Datenbasis im Wesentlichen auf im Internet veröffentlichen Inhalte und Meinungen begrenzt ist. Die mindestens ebenso umfangreichen Daten, Inhalte und Meinungen, die nicht im Internet veröffentlicht werden (z. B. private Gespräche usw.), fallen ja weitgehend unter den Tisch. Und bei der „Qualitätsoptimierung“ der Aussagen des Systems durch menschliche „Lehrer“ wird ja auch das „Qualitäts-Verständnis“ dieser „Lehrer“ mit ins System eingebracht. Ebenso könnten bestimmte Standardisierungen in der Arbeitsweise des Systems in der Folge massenhafter Nutzung zu tendenziell verfälschenden Ergebnissen führen. Auf diese Weise könnte so ein System ungewollt eine Art eigener, interner „Tendenz“ entwickeln, der Tendenz, die Phänomene der realen Welt in Richtung eines bestimmten Verständnisses dieser Realitäten zu interpretieren.

Zweitens gewollt: Ki-Systeme könnten schon von vornherein an einer von menschlichen Mächten vorgegebenen „Ideologie“ ausgerichtet sein, deren Zielvorstellung an den Machtinteressen der Mächtigen ausgerichtet wären (und diese zweite Variante ist die wesentlich wahrscheinlichere). Es geht hier nicht nur um „Schummel-Software“ für Schüler, so zu denken wäre schrecklich naiv. Noch naiver wäre es, wenn wir davon ausgingen, dass nur faule Schüler oder überforderte Studenten, nur gutwillige Wissenschaftler oder gestresste Journalisten von solchen Systemen Gebrauch machen würden und nicht auch die Geheimdienste und Propaganda-Abteilungen schon existierender oder auch künftiger Diktaturen. Da könnte dann die „Qualitäts-Optimierung“ des Systems entlang der Richtlinien eines staatlichen und/oder wirtschaftlichen Machtapparates geschehen und die Meinungs-Bildung ganzer Völker unbemerkt in eine gewünschte Richtung beeinflussen. Abweichende Meinungen würden dann  nicht nur als „anders“ gelten, sondern als „böse“ („Terrorpropaganda“ nennt man das dann), mit allen entsprechenden Konsequenzen. Und solche Systeme gibt sind ja schon im Entstehen (z. B. in Gesellschaften mit „Sozial-Kredit“, in dem jeder sich seine „Daseinsberechtigung“ und sein „Wohlergehen“ durch „Wohlverhalten“ entsprechend der Vorgaben der Machthaber selbst „verdienen“ muss).

Ein paar Fragen werden jetzt brennender als je:

Was ist „Wahrheit“? Könnten KI-Systeme aus einer Über-Fülle von Schein-Wahrheiten, Halb-Wahrheiten und bewussten Lügen, das seltene, vielleicht schon unterdrückte Körnchen Wahrheit herausfinden oder würde sie einfach der Übermacht der großen Zahl folgen (und die immer weiter verstärken) oder der Attraktivität  der überzeugendsten Lügen? Und mit welchem Maß würde sie dazu die verschiedenen Überzeugungen messen?

– Was ist „Sinn“? Könnten KI-Systeme die Sinn-Frage der Menschen beantworten? Oder würden sie nur aus vorhandenen Äußerungen über Zielvorstellungen oder Utopien von Menschen und Gemeinschaften die häufigste bzw. „logisch“ überzeugendste  Antwort auswählen und zum „Menschheits-Sinn“ erklären?

– Was ist „Hoffnung“? Könnten KI-Systeme so etwas wie „Hoffnung“ generieren, die über das „Hier und Jetzt“, vielleicht sogar über das eigene Leben hinausreicht, oder würden sie einfach der „Logik“ ihrer Algorithmen folgend das zur gültigen „Hoffnung“ erklären, was sich aktuell die Mehrheit der Menschen wünscht? Oder würden vielleicht sogar die Ziele und Welt-Macht-Ambitionen der großen Diktaturen zur „Menschheits-Hoffnung“ verklärt?

– Was ist „Liebe“? Könnten Ki-Systeme so etwas wie „Liebe“ wahrnehmen („Liebe“ hier ganz allgemein verstanden als „Mitmenschlichkeit“), also persönliche Wertschätzung, Sympathie, Zuneigung, Anteilnahme, Mitleid, Hilfsbereitschaft, selbstlosen Einsatz, vielleicht sogar so etwas wie „Opferbereitschaft“ (also die Bereitschaft, etwas herzugeben, ohne etwas Gleichwertiges dafür zu bekommen) oder würden sie im Wesentlichen, sachlich korrekt, jeweils Vor- und Nachteile unserer Beziehungen gegeneinander abwägen und so „Mitmenschlichkeit“ zum „Geschäftsmodell“ machen?

Die Antworten auf solche Fragen könnten über das Schicksal der Menschheit im 21. Jahrhundert mitentscheiden.

Aber wir  müssen künstliche Intelligenz nicht nur als Bedrohung sehen. Nicht die künstliche Intelligenz bedroht uns, sondern ihr möglicher Missbrauch als mächtiger „Hebel“ im Ringen um wirtschaftliche oder politische Vorteile oder auch als „Waffe“ im Kampf um die künftige Welt-Herrschaft.

Es wäre ja durchaus möglich, „künstliche Intelligenz“ auch so zu gestalten und einzusetzen, dass sie (siehe oben) der Wahrheit, der Sinnerfüllung, der Hoffnung und der Liebe dient und nicht vor allem dem Geld- und Machtgewinn derer, die exklusiv über sie verfügen können. Die aktuelle Entwicklung allerdings läuft gegenwärtig in eine andere Richtung: Das Text-Programm „ChatGPT“ z. B. wurde ursprünglich als „open-source-software“ entwickelt, dann aber hat Microsoft für einen Milliarden-Betrag eine (fast) Anteilsmehrheit erworben und nun wird dort dieses mächtige System entsprechend der eigenen Interessen weiterentwickelt. Ähnliche KI-Systeme werden (z.B. in China) von vorn herein für die Zwecke einer Partei-Diktatur entwickelt. Es ist wie immer in der Menschheitsgeschichte: Jede geniale Idee und potente Entwicklung kann zum Wohl der Menschheit verwendet werden oder zu ihrer Zerstörung.

Verantwortlichkeit, die über den persönlichen Lebensbereich hinausgeht, kann es nicht geben ohne gemeinsame ethische Überzeugungen. Da aber die Entwicklung von Systemen mit künstlicher Intelligenz eine globale Dimension hat, braucht es zwingend für den Umgang mit solchen Systemen eine globale „Menschheits-Ethik“.

Allerdings: Es wäre wichtig, eine solche ethische Ausrichtung schon jetzt anzulegen und stetig weiter zu entwickeln. Wenn versklavende Entwicklungen schon weiter fortgeschritten sind, wird es nur noch schwer möglich sein, sie wieder auf ein ethisch vertretbares Maß zurückzuführen. Technischer Transhumanismus oder humane Technik? Welche Variante wollen wir wählen – jetzt, wo wir noch die Wahl haben?

Alle Beiträge zum Thema "Natürliche und künstliche Intelligenz"


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert