Bereich: B Herausforderungen der Gegenwart

Thema: Natürliche und künstliche Intelligenz

Beitrag 3: Natürliche Intelligenz 3: Erweiterung menschlicher Möglichkeiten (Bodo Fiebig11. November 2021)

Man kann die Entwicklung menschlicher Möglichkeiten (vom ersten Gebrauch einfachster „Werkzeuge“ bis hin zu Robotern mit künstlicher Intelligenz) in eine lange Reihe fortschreitender Erweiterungen von Fähigkeiten der Menschen einordnen.

Der Mensch ist von Natur aus unzureichend ausgestattet: Er ist zwar „Allrounder“, der aufrecht gehen, mit Händen greifen, leidlich gut sehen, hören, riechen, fühlen, schmecken kann, aber nichts wirklich gut im Vergleich mit verschiedenen Tierarten, dazu ist er ohne Hörner und Hauer, ohne Klauen und Krallen, ohne warmes Fell oder Federn, von Natur aus nackt und wehrlos (Arnold Gehlen nannte den Menschen ein „Mängelwesen“).

Trotzdem konnten sich verschiedene Menschengruppen in allen Klimazonen der Erde und gegen alle tierischen Konkurrenten durchsetzen. Unter anderem dadurch, dass sie sich für die fehlenden natürlichen Eigenschaften selbst künstlichen „Ersatz“ schufen, bzw. die vorhandenen Fähigkeiten künstlich erweiterten. In mehreren Stufen:

1 Erlernte menschliche Fähigkeiten als Ersatz für begrenzte biologische Ausstattung

Der „moderne Mensch“ (Homo Sapiens) lebte zuerst in Afrika. Auch für diese Klimazonen war er defizitär ausgestattet, aber er lebte. Dann aber begann er in andere Klimazonen auszuwandern: Zunächst nach Europa und Asien. Dort aber hatte das Lebewesen, das man später einmal den „nackten Affen“ nennen würde, eigentlich keine Überlebenschance. Er würde im Winter erfrieren, in der Kälte verhungern, würde den Kampf gegen Bären und Wölfe verlieren …

Aber die Menschen entwickelten die Fähigkeiten, sich in Gruppen zu organisieren, arbeitsteilige Spezialisierungen zu entwickeln und für ihre biologischen Defizite „Ersatz“ zu schaffen: Das fehlende Fell wurde ersetzt durch Kleidung und Schuhe, der fehlenden Winterschlaf durch Wintervorräte (später durch Warenhäuser und Supermärkte, die das ganze Jahr Nahrung anbieten), das fehlende Nest, das Kokon, die Höhle … durch Zelt, Hütte oder Iglu… (bis zum Wohnhochhaus), die fehlenden Hörner und Krallen … wurden ersetzt durch Waffen wie Speer, Pfeil und Bogen, Axt, Schwert … (später durch Gewehr, Kanone, bis zur Atombombe …).

2 Erweiterung vorhandener Fähigkeiten

Auch die tatsächlich vorhandenen Fähigkeiten des Menschen sind im Vergleich mit vielen Tierarten eher bescheiden. Er kann nicht so schnell laufen wie ein Reh, nicht so gut sehen wie ein Falke, nicht so gut riechen wie ein Wolf, nicht so gut hören wie ein Luchs, ist nicht so stark wie ein Büffel …, aber er war schon vor Jahrtausenden dabei (und ist es bis heute), seine Fähigkeiten künstlich zu erweitern.

  1. B bei der Fortbewegung: Reiten (statt laufen) auf Pferden oder Kamelen … Fahren mit der Postkutsche, Eisenbahn, Auto … Fliegen mit d. Flugzeug, Weltraumrakete …

Sehen: Brille, Fernglas, Lupe, Mikroskop, künstliches Licht, Fernseh-Geräte …

Hören: Mikrophon und Lautsprecher, Hörgerät, Tele-Phon, Radio …

Kraft: Einsatz von Tieren für Kraft und Ausdauer (von Tieren angetriebenes Schöpfrad, Reit- und Zugtiere …),

Antrieb durch Wasser- und Windkraft, Dampfmaschine, Verbrennungs-Motor, Elektromotor, …

Reichweite des Armes: Erweitert durch Speer, Pfeil und Bogen, Gewehr, Kanone, computergesteuerte Marschflugkörper …

Gestaltungsfähigkeit der Hände: Erweitert durch Werkzeuge (Hammer, Axt, Meißel, Säge…), durch Maschinen und Roboter …

Dann lernten Menschen, nicht nur ihre körperlichen Fähigkeiten, sondern auch ihre Wahrnehmung zu erweitern und zu präzisieren.

a) Erweiterung bzw. Präzisierung der Wahrnehmung

Menschen lernten, die Wahrnehmungsfähigkeiten ihrer Sinnesorgane durch technische Vorrichtungen zu steigern, zu erweitern und zu präzisieren: Messgeräte für präzisere Wahrnehmung, z. B. der Zeit (vom Sonnenstab bis zur Atomuhr), oder Gewicht (Waage), Temperatur (gemessen mit dem Thermometer), Entfernungen, (gemessen zunächst in Schritten, Ellen, dann mit Maßstab, optischen Messgeräten …) in Kilometern, Metern, Millimetern, Mikrometern …

Dann auch Messgeräte zur Wahrnehmung von Realitäten, für die Menschen gar keine Sensoren haben (z.B. radioaktive Strahlung durch Geigerzähler, Weltraumstrahlung durch Radio-Teleskope) usw.

b) Erweiterung der Kommunikation

Kommunikation ist die Voraussetzung für zwischenmenschlichen „Datenaustausch“. Erst dadurch, dass Menschen ihre Erfahrungen in ihrer Umwelt mit Hilfe einer immer weiter entfalteten Sprache austauschen und vergleichen konnten, war es möglich, subjektive Wahrnehmungen zu vergleichen und allmählich zu objektivieren.

Nah-Kommunikation: Hand-Zeichen, Laut-Zeichen, Sprache

Fern-Kommunikation: Busch-Trommel, Feuer- und Rauchzeichen, Schrift, Telefon, Internet …

Konservierung von kommunikativen Inhalten: Erst nach Jahrtausenden gesprochener Sprache gelang es, den flüchtigen Klang der Worte festzuhalten und so deren Inhalte zu „konservieren“: Transportabel und haltbar gemachte Nachrichten auf Tontafeln, Papyrus …, in Büchern, Speichermedien für elektronische Daten…

c) Erweiterung des Wissens und des Gedächtnisses

Ein entscheidender, ja der entscheidende Schritt in der Entwicklung des Menschseins war die entstehende und dann immer weiter ausgebaute Möglichkeit, das Wissen vieler Menschen (die gleichzeitig an verschiedenen oft weit entfernten Orten wohnten) und die Erfahrungen vieler Generationen (die zu verschiedenen Zeiten lebten) zu sammeln und aufzubewahren: Tontafel-, Papyrus-, Pergament – Bibliotheken; gesammeltes und konserviertes Wissen in Büchern, im Internet, Wikipedia, Welt-Wissen der Menschheit … Datensammlung im Internet über alles und jeden.

Wichtigste Voraussetzung dafür war eine immer weitergehende Entfaltung einer Sprache, die auch zur Weitergabe zunehmend abstrakter Inhalte geeignet war und ihre Fixierung durch Verschriftlichung.

d) Steigerung von menschlichen Denkprozessen

Die Sprache selbst ist ein ungeheuer mächtiges Hilfsmittel zur Steigerung des menschlichen Denkens. Der Mensch denkt in Sprache und je weiter seine Sprache entwickelt ist, desto weiter gehen auch seine Denkmöglichkeiten. Die „Denkwerkzeuge“ der Sprache können auch für spezielle Anwendungen entwickelte „formale Sprachen“ umfassen (z. B. die Symbolsprache der Mathematik oder „Programmiersprachen“ in der Informationstechnologie). Zur Vereinfachung mancher Denk-Operationen haben sich Menschen dann auch noch technische Hilfsmittel erarbeitet (z.B. Zählbrett, mechanische Rechenmaschine, Rechenschieber, elektronischer Taschenrechner…) und in den letzten Jahrzehnten haben durch die Fähigkeiten der Computer (Speicherung und Verarbeitung großer Datenmengen in kurzer Zeit) auch seine Denkleistungen eine ungeahnte Steigerung erfahren. Dazu müssen Menschen aber eine entsprechende technische „Sprache“ erlernen, die es ihnen möglich macht, mit ihren selbst gebauten „Denk-Maschinen“ zu kommunizieren. Erst seit kurzem sind elektronische Geräte fähig, die viel komplexere „Menschen-Sprache“ zu verstehen und in „Maschinen-Aktionen“ umzusetzen.

Trotzdem: Auch hier handelt es sich noch um eine „Erweiterung menschlicher Möglichkeiten“. Erst wenn die von Menschen konstruierten und von Menschen programmierten Maschinen so arbeiten würden, dass Menschen nicht mehr verstehen könnten (und deshalb auch nicht mehr kontrollieren könnten), was in den Maschinen vorgeht, zu welchen Ergebnissen sie kommen und welche Folgen das haben könnte, erst dann wäre eine Grenze überschritten. Neuere Entwicklungen Im Verhältnis natürlicher und künstlicher Intelligenz kommen immer näher an diese Grenze heran.

3 Neuere Entwicklungen im Verhältnis natürlicher und künstlicher Intelligenz

Eine neuere Erscheinung auf dem (scheinbar fast unbegrenzten) „Markt der Möglichkeiten“ künstlicher Intelligenz sind Programm-Systeme (z. B. ChatGPT; es gibt aber noch weitere) die sekundenschnell selbstständig intelligente (und sachlich und sprachlich durchaus anspruchsvolle) Texte zu jeder beliebigen Inhalts-Vorgabe verfassen können, auch Fragen beantworten, Aufgaben lösen… Dazu werden solche Systeme an riesigen Datenmengen aus dem Internet trainiert, um sprachliche Zuordnungen und Muster zu lernen. Dann aber auch (zwar mengenmäßig begrenzt, aber doch  allgemein übertragbar) durch menschliche „KI-Lehrer“ korrigiert und auf zunehmende „Qualität“ der Aussagen geschult. Die Ergebnisse sind verblüffend gut und von Texten, die von „echten“ Menschen geschrieben wurden, kaum zu unterscheiden. Und schon befürchten Lehrer und Professoren, dass ihre Schüler und  Studenten sich ihre Hausaufgaben, Seminararbeiten, Doktorarbeiten … mühelos von solchen Systemen anfertigen lassen könnten.

Aber wie naiv sind wir denn, wenn wir annehmen, dass solche Systeme nur von faulen Schülern/Schülerinnen und überforderten Studenten/Studentinnen missbraucht werden könnten? Da könnten ja auch ganz andere und weit weniger harmlose „Nutzer“ im Spiel sein.

Fangen wir trotzdem  mit einem ganz „harmlosen“ Beispiel an: Ein Team von Sozial-Wissenschaftlern hat eine größere Umfrage zu einem bestimmten, in der Gesellschaft kontrovers diskutierten Thema gemacht, nun gibt es ihre Fragestellungen, Vorgehensweisen und Umfrageergebnisse in so ein System mit „KI“ ein, mit dem Auftrag, dazu alle relevanten früheren Forschungsergebnisse zu suchen, passendes Bild- und Grafik-Material zu finden (oder selbst zu erzeugen), deren Ergebnisse mit den eigenen zu vergleichen und daraus einen Beitrag für eine wissenschaftliche Fachzeitschrift zu generieren. Dann würde man am Schluss selbst noch mal den Text überprüfen, manches korrigieren und ergänzen und dann die fertige Arbeit vorlegen. So weit wäre das alles noch in einem vertretbaren Rahmen.

Wie wäre es aber, wenn z. B. ein Journalist (und nach und nach immer mehr) sich Kommentare zu politischen Streitfragen von künstlicher Intelligenz anfertigen ließe? Das würde seine Arbeit wesentlich beschleunigen (Journalisten arbeiten ja immer unter Zeitdruck) und erleichtern. Aber: Welche Positionen in einem weiten Spektrum von politischen Meinungen würde das System vertreten? (Dass KI-Systeme „Meinungs-neutral“ sein könnten, glauben nur noch Idealisten). Und würden sich diese Positionen (in massenhafter Anwendung des Systems) allmählich in einer „Meinungsblase“ verdichten, der man  kaum mehr entkommen könnte (weil die einzelnen Nutzer gar nicht mehr nachvollziehen könnten, wie diese Meinungen zustande gekommen sind)?

Vielleicht würde auch ein Politiker so ein KI-System als „Redenschreiber“ benutzen, um seine Reden immer aktuell auf den neuesten Stand zu halten (ohne zu merken, dass immer weniger er selbst die Inhalte der Reden vorgibt, sondern das System immer mehr die Inhalte seines Denkens bestimmt)?

Wobei wir ja davon ausgehen müssen, dass „Denkmaschinen“ mit künstlicher Intelligenz selbst keine eigenen Meinungen und erst recht keine emotionalen Vorlieben oder Abneigungen und keine heimliche Absichten haben können. Die „Maschinen“ nicht, aber die Menschen, die ihre Anwendungen programmiert und die Datenbasis dafür zubereitet haben haben (bzw. deren Auftraggeber), die schon.

Ich will das an einem einfachen Beispiel erklären: Mein Navigations-Gerät im Auto führt mich mit einer freundlichen Frauen-Stimme durch den Verkehr, und auch dann, wenn ich ihre Anweisungen ignoriere und ganz andere Wege fahre, wird sie niemals ärgerlich. Ich erlebe sie als sehr freundlich und mit sehr viel Nachsicht und Geduld. Das bedeutet aber nicht, dass mein „Navi“ selbst freundlich und geduldig wäre, sondern nur, dass es bewusst so programmiert wurde, dass bei mir eben dieser Eindruck entstehen soll (wir Menschen neigen offensichtlich unbewusst dazu, unsere zwischenmenschlichen Erfahrungen auf den Umgang mit „seelenlosen“ Denk-Maschinen zu übertragen. Diese Neigung, Maschinen mit „menschenähnlich“ erscheinenden Verhaltensweisen unbewusst noch stärker zu „vermenschlichen“, ist ein starker Hebel in den Händen von Mächten, die uns manipulieren wollen)

Noch sieht alles nach einer faszinierenden Spielerei aus, aber wir müssen uns das bewusst machen: Eine wertneutrale, ideologiefreie und gesellschaftlich folgenlose „Denk-Leistung“ gibt es nicht (sobald die massenhaft anwendbar und konsumierbar wird) und kann es nicht geben !

Dazu wieder ein vereinfachtes Beispiel: Mein „Navi“ könnte (wenn es so programmiert wäre) „lernen“, dass ich an einer bestimmten Stelle meines morgendlichen Berufsweges, anders als von ihm empfohlen (also im Sinne der Programmierung „falsch“) fahre. Es könnte daraufhin meine gesamte Fahr-Strecke so verändern, dass ich künftig gar nicht mehr an diese bestimmte Stelle kommen und ich so nicht mehr „falsch“ fahren könnte. So könnte mein Navi (und noch viel mehr ein System mit noch weiter fortgeschrittener „künstlicher Intelligenz“) mein Verhalten steuern in Richtung eines vorgegebenen „Wohlverhaltens“. Und das könnte so ein System mit KI täglich an tausenden kleinen und kleinsten Stelle und von mir selbst völlig unbemerkt tun und mich selbst zu einem außengesteuerten „Roboter“ machen (KI kann ja auch noch anderes, als nur Texte generieren).

Das wäre vor allem dann besonders kritisch, wenn hinter all diesen „Steuerungen“ (und genau so auch beim Generieren von Texten) nicht der Zufall am Werk wäre, sondern eine gemeinsame und übergeordnete „Idee“, die bestimmt, in welche „Richtung“ alle diese Steuerungen wirken sollen. Wieder am Beispiel des Navi: Es könnte in Zukunft alle meine Fahrten so steuern, dass dabei eine möglichst geringe CO2-Belastung entstünde. Das wäre dann eine sinnvolle und für mich auch einsichtige Steuerung. Wer sagt mir aber, dass die Steuerung von Menschen durch Systeme mit KI nicht noch ganz andere „Hintergrund-Ideen“ haben könnte, vielleicht sogar eine „Sinn-begründend verbundene Gesamtheit von Ideen“, also eine „Ideologie“, deren Ausrichtung uns auf eine vorgegebene Zielvorstellung hin orientieren und in Bewegung setzen will.

So eine „Ideologisierung“ von KI-Systemen könnte auf zweierlei Weise geschehen:

Erstens ungewollt: Einseitigkeiten in der Daten-Basis von KI-Systemen wie ChatGPT (z. B. durch die Bevorzugung von Trainings-Inhalten in englich-amerikanischer Sprache, die ja, wie jede andere Sprache auch, in sich schon eine bestimmte „Weltsicht“ transportiert) oder auch durch die Tatsache, dass diese Datenbasis im Wesentlichen auf im Internet veröffentlichen Inhalte und Meinungen begrenzt ist. Die mindestens ebenso umfangreichen Daten, Inhalte und Meinungen, die nicht im Internet veröffentlicht werden (z. B. private Gespräche usw.), fallen ja weitgehend unter den Tisch. Und bei der „Qualitätsoptimierung“ der Aussagen des Systems durch menschliche „Lehrer“ wird ja auch das „Qualitäts-Verständnis“ dieser „Lehrer“ mit ins System eingebracht. Ebenso könnten bestimmte Standardisierungen in der Arbeitsweise des Systems in der Folge massenhafter Nutzung zu tendenziell verfälschenden Ergebnissen führen. Auf diese Weise könnte so ein System ungewollt eine Art eigener, interner „Tendenz“ entwickeln, der Tendenz, die Phänomene der realen Welt in Richtung eines bestimmten Verständnisses dieser Realitäten zu interpretieren.

Zweitens gewollt: Ki-Systeme könnten schon von vornherein an einer von menschlichen Mächten vorgegebenen „Ideologie“ ausgerichtet sein, deren Zielvorstellung an den Machtinteressen der Mächtigen ausgerichtet wären (und diese zweite Variante ist die wesentlich wahrscheinlichere). Es geht hier nicht nur um „Schummel-Software“ für Schüler, so zu denken wäre schrecklich naiv. Noch naiver wäre es, wenn wir davon ausgingen, dass nur faule Schüler oder überforderte Studenten, nur gutwillige Wissenschaftler oder gestresste Journalisten von solchen Systemen Gebrauch machen würden und nicht auch die Geheimdienste und Propaganda-Abteilungen schon existierender oder auch künftiger Diktaturen. Da könnte dann die „Qualitäts-Optimierung“ des Systems entlang der Richtlinien eines staatlichen und/oder wirtschaftlichen Machtapparates geschehen und die Meinungs-Bildung ganzer Völker unbemerkt in eine gewünschte Richtung beeinflussen. Abweichende Meinungen würden dann  nicht nur als „anders“ gelten, sondern als „böse“ („Terrorpropaganda“ nennt man das dann), mit allen entsprechenden Konsequenzen. Und solche Systeme gibt sind ja schon im Entstehen (z. B. in Gesellschaften mit „Sozial-Kredit“, in dem jeder sich seine „Daseinsberechtigung“ und sein „Wohlergehen“ durch „Wohlverhalten“ entsprechend der Vorgaben der Machthaber selbst „verdienen“ muss).

Ein paar Fragen werden jetzt brennender als je:

Was ist „Wahrheit“? Könnten KI-Systeme aus einer Über-Fülle von Schein-Wahrheiten, Halb-Wahrheiten und bewussten Lügen, das seltene, vielleicht schon unterdrückte Körnchen Wahrheit herausfinden oder würde sie einfach der Übermacht der großen Zahl folgen (und die immer weiter verstärken) oder der Attraktivität  der überzeugendsten Lügen? Und mit welchem Maß würde sie dazu die verschiedenen Überzeugungen messen?

– Was ist „Sinn“? Könnten KI-Systeme die Sinn-Frage der Menschen beantworten? Oder würden sie nur aus vorhandenen Äußerungen über Zielvorstellungen oder Utopien von Menschen und Gemeinschaften die häufigste bzw. „logisch“ überzeugendste  Antwort auswählen und zum „Menschheits-Sinn“ erklären?

– Was ist „Hoffnung“? Könnten KI-Systeme so etwas wie „Hoffnung“ generieren, die über das „Hier und Jetzt“, vielleicht sogar über das eigene Leben hinausreicht, oder würden sie einfach der „Logik“ ihrer Algorithmen folgend das zur gültigen „Hoffnung“ erklären, was sich aktuell die Mehrheit der Menschen wünscht? Oder würden vielleicht sogar die Ziele und Welt-Macht-Ambitionen der großen Diktaturen zur „Menschheits-Hoffnung“ verklärt?

– Was ist „Liebe“? Könnten Ki-Systeme so etwas wie „Liebe“ wahrnehmen („Liebe“ hier ganz allgemein verstanden als „Mitmenschlichkeit“), also persönliche Wertschätzung, Sympathie, Zuneigung, Anteilnahme, Mitleid, Hilfsbereitschaft, selbstlosen Einsatz, vielleicht sogar so etwas wie „Opferbereitschaft“ (also die Bereitschaft, etwas herzugeben, ohne etwas Gleichwertiges dafür zu bekommen) oder würden sie im Wesentlichen, sachlich korrekt, jeweils Vor- und Nachteile unserer Beziehungen gegeneinander abwägen und so „Mitmenschlichkeit“ zum „Geschäftsmodell“ machen?

Die Antworten auf solche Fragen könnten über das Schicksal der Menschheit im 21. Jahrhundert mitentscheiden.

Aber wir  müssen künstliche Intelligenz nicht nur als Bedrohung sehen. Nicht die künstliche Intelligenz bedroht uns, sondern ihr möglicher Missbrauch als mächtiger „Hebel“ im Ringen um wirtschaftliche oder politische Vorteile oder auch als „Waffe“ im Kampf um die künftige Welt-Herrschaft.

Es wäre ja durchaus möglich, „künstliche Intelligenz“ auch so zu gestalten und einzusetzen, dass sie (siehe oben) der Wahrheit, der Sinnerfüllung, der Hoffnung und der Liebe dient und nicht vor allem dem Geld- und Machtgewinn derer, die exklusiv über sie verfügen können. Die aktuelle Entwicklung allerdings läuft gegenwärtig in eine andere Richtung: Das Text-Programm „ChatGPT“ z. B. wurde ursprünglich als „open-source-software“ entwickelt, dann aber hat Microsoft für einen Milliarden-Betrag eine (fast) Anteilsmehrheit erworben und nun wird dort dieses mächtige System entsprechend der eigenen Interessen weiterentwickelt. Ähnliche KI-Systeme werden (z.B. in China) von vorn herein für die Zwecke einer Partei-Diktatur entwickelt. Es ist wie immer in der Menschheitsgeschichte: Jede geniale Idee und potente Entwicklung kann zum Wohl der Menschheit verwendet werden oder zu ihrer Zerstörung.

Wird die Entwicklung von „künstlicher Intelligenz“, die von der „natürlichen Intelligenz“ der Menschheit in jahrtausendelangen Entwicklungen hervorgebracht wurde, uns im 21. Jahrhundert eher nützen oder schaden? Davon wird nun in den Beiträgen 4, 5 und 6 zu „künstlicher Intelleigenz“ die Rede sein.

Alle Beiträge zum Thema "Natürliche und künstliche Intelligenz"


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert