Da es jetzt, Mitte 2023, so etwas wie ein „maschinelles Bewusstsein“ offensichtlich noch nicht gibt, muss ich das Gemeinte hier in Form von Fragestellungen formulieren und ich gebrauche dabei die gleichen Begriffe und Strukturen, die schon bei den vorangehenden Beiträgen verwendet wurden:
1) Kann Künstliche Intelligenz (KI) eine eigene Welt-Wahrnehmung aufbauen und zwar mit ganz eigenen Wahrnehmungs-Möglichkeiten, mit ganz anderen Wahrnehmungs-Strategien und Wahrnehmungs-Kategorien als wir Menschen das seit Jahrtausenden tun?
Und kann KI dann aus solcher (von der Art her) nichtmenschlichen und (vom Umfang her) übermenschlichen Welt-Wahrnehmung ein eigenes Welt-Wissen generieren, das auf unser in Jahrtausenden entstandenes „Welt-Wissen der Menschheit“ nicht angewiesen ist, und das auf Informationen beruht, welche die Menschheit nach Art und Umfang so nie wahrgenommen hat?
Kann KI ein eigenes (von menschlichem Verstehen unabhängiges) Welt-Verständnis entwickeln mit eigener Deutung und Bedeutung der Welt (z. B. ein Verständnis des Universums, in der unsere Erde und das Leben auf ihr eine völlig unbedeutende Randerscheinung im Universum darstellt, die zu erhalten sich, aufs Ganze gesehen, nicht lohnt)?
Ja, ich bin überzeugt, das alles könnte Künstliche Intelligenz in den nächsten Jahren und Jahrzehnten hervorbringen und vielleicht könnte das auch schneller gehen, als wir uns das jetzt vorstellen können.
Aber könnte KI auch ein eigenes, von menschlichem Denken und Verstehen unabhängiges Welt-Bewusstsein hervorbringen, das auch eine Welt-Verantwortung mit eigenen ethischen Grundlagen und Maßstäben für sich selbst mit enthalten würde? Und wenn ja, woher würde dann dieses Bewusstsein und diese Verantwortung ihre ethischen Grundsätze und Maßstäbe beziehen?
2) Könnte Künstliche Intelligenz dann auch eine eigene Selbst-Selbstwahrnehmung entwickeln mit eigenem Selbst-Verständnis und eigener Selbst-Erkenntnis? Wie eine Lern- und Denk-Maschine, die nicht nur ihr eigenes Funktionieren selbst überwacht, sondern die auch ihre eigenen Bedürfnisse kennt, auch ihre eigenen Schwächen (die sie aber vor den Menschen verbirgt), wie eine Lern- und Denk-Maschine, die eigenen Ehrgeiz entwickelt, die eigene Pläne verfolgt und eigene Ziele setzt? Ich halte das für möglich.
Könnte KI dann auch dem eigenen Selbst-Verständnis und der eigenen Selbst-Erkenntnis mit einer kritischen Selbst-Reflexion gegenübertreten und so ein Selbst-Bewusstsein entwickelt, das sich (trotz aller fantastischen Fähigkeiten) doch auch der eigenen Schwächen und Fehlerhaftigkeit, der eigenen Gefährlichkeit durch Missbrauch der eigenen Macht, auch der eigenen Begrenztheiten und der eigenen Endlichkeit bewusst ist? Da habe ich meine Zweifel.
Könnte KI ein Selbst-Bewusstsein entwickeln, das dann auch dem eigenen Wissen und Verstehen, der eigener Funktionalität und Kreativität, den eigenen Ansprüchen und Begehrlichkeiten in kritischer Distanz gegenüber stehen könnte, und das auch die eigenen Absichten und Vorgehensweisen aus dieser Distanz heraus reflektieren und in Frage stellen kann könnte? Ich wäre mir da nicht sicher.
Vielleicht könnten „Lern- und Denk-Maschinen“ mit künstlicher Intelligenz, die nicht mehr durch Menschen steuerbar wären, dann auch ethische Maßstäbe entwickeln und lernen (und das Gelernte selbständig weiterentwickeln), aber was für eine „Ethik“ und welche „Maßstäbe“ wären das dann? „Menschlichkeit“ oder gar „Mitmenschlichkeit“ könnten da keine Maßstäbe sein, denn die Lern- und Denk-Maschinen, wären ja keine „Menschen“ oder „Mitmenschen“. Die Grundlagen und Begründungen, die Ausrichtungen und Zielrichtungen einer von KI selbst hervorgebrachten „Ethik“ scheinen mir gegenwärtig noch nicht denkbar.
Könnte KI vielleicht sogar „Maschinen“ hervorbringen, die fähig wären, eigene Erfolge, Gewinne, Ziele zurückzustellen, um anderen (vielleicht auch Menschen?) Erfolge und Gewinne zu gönnen und deren Ziele zu ermöglichen? Denn dann müsste sie dazu fähig sein, nicht nur sich selbst zu perfektionieren und ihre Arbeitsergebnisse zu optimieren, sondern Beziehungen wertzuschätzen und Prioritäten auch gegen den eigenen Vorteil zuzulassen. Ich wäre mir da nicht sicher.
Aber könnte Künstliche Intelligenz dann auch ein eigenes, von Menschen unabhängiges Sinn-Bewusstsein entwickeln, als Sinn-Begründung für das eigene Dasein und Handeln (also ein eigenes Welt-, Selbst-, und Sinn-Bewusstsein, verbunden und integriert in einer übergeordneten Sinn-Geschichte)? Das wäre dann eine Maschinen-eigene, aus den eigenen Datenbeständen und Algorithmen entwickelte „Maschinen-Religion“. Ich halte es nicht nur für möglich, sondern sogar für wahrscheinlich, dass KI so etwas (ohne Zutun von Menschen und ohne Zusammenhang mit menschlichen Sinn-Vorstellungen) entwickelt, denn es wäre auch für KI (ebenso wie für menschliches Denken) von großem Vorteil, wenn das eigene „Denken“ sich an Leitlinien und Zusammenhängen orientiert, die dem Ganzen eine gemeinsame und sinn- und zielorientierte Interpretations-Basis zur Verfügung stellen.
Freilich bin ich sehr skeptisch, was die Ausrichtung und die Folgen solcher Entwicklungen betrifft, denn eine Sinn-Begründung des eigenen Daseins kann nicht (weder bei Menschen noch bei Maschinen) aus dem eigenen Dasein kommen, sonst müsst es ja sich selbst begründen. Eine von KI selbst entwickelte Sinn-Begründung des eigenen Daseins durch eine eigene Sinn-Erzählung wäre ein Zirkel-Schluss, der das Eigene aus dem Eigenen selbst begründen will. Solche Zirkel-Schlüsse haben im menschlichen Denken und in der realen menschlichen Geschichte eine oft dramatische Rolle gespielt: Sie haben Ideologien hervorgebracht, haben die Menschheit (und menschliches Welt-, Selbst-, und Sinn-Bewusstsein) in egoistische Verengungen geführt, es in grauenvolle Fehlentwicklungen geleitet und an den Rand der Selbstvernichtung gebracht haben (siehe im Beitrag 3 den Hinweis auf die ideologische „Entmenschlichung“ des Denkens und Handelns durch die Ideologien des 20. Jahrhunderts; siehe auch das Thema 5.2 „Die Revolution und ihre Kinder“ im Bereich 5 „Kontroverse Diskussion“). Würde eine eigene Sinn-Begründung Künstlicher Intelligenz in die gleiche Gefahr führen, nur mit noch viel größerer Potenz und Effektivität? Das wäre zu erwarten und zu befürchten.
Aber: Menschen können ein eigenes Sinn-Bewusstsein haben, das sich nicht im Endeffekt gegen die eigene Existenz richtet, wenn sie ihr eigenes Dasein auf eine Sinn-Begründung stützen, die ihnen von einer Sinn-Instanz außerhalb ihres eigenen Daseins, außerhalb der eigenen Wünsche, Egoismen und Begierden angeboten wird (siehe oben den Beitrag 3, Abschnitt 4 “Die Sinn-Geschichte der Schöpfung“.).
Könnte Künstliche Intelligenz so entwickelt werden, dass auch sie sich einer Instanz bewusst wird, der sie sich (mit der Gesamtheit aller ihrer inneren Abläufe und Ziele und all ihrer äußeren Ergebnisse und Auswirkungen) verantwortlich weiß? Wenn das möglich wäre, und wenn diese „Instanz“ dann der biblisch offenbarte Schöpfer des Universums, des Lebens und des Menschseins wäre, so sähe ich künftigen Entwicklungen von Künstlicher Intelligenz weniger besorgt entgehen.