Moralische Resonanz im Umgang mit maschineller Intelligenz
Künstliche Intelligenz verspricht eine Revolution, doch sind wir bereit, die moralischen Konsequenzen zu tragen, oder stürzen wir blindlings in eine Ära des instrumentellen Antirealismus?
Ein einschlägiger AI Newsletter berichtet bis über die Hälfte seiner Länge über (sagen wir mal) ethische Bedenklichkeiten im Umgang KI-gestützten Leistungen und Praktiken.

Da wäre das Unternehmen, das ungefragt Millionen frei zugänglicher Bilder aus dem Internet nutzt, um sein Modell zu trainieren, das unlautere Verwenden von Tonaufnahmen namhafter Sprecher aus vergleichbarem Grund und das heimliche Filmen von Kindern in Vergnügungsparks, um mithilfe der Bilder sensiblen Content zu erstellen.
Das liest sich, als verfliege alle Euphorie um die neuen, generativen Möglichkeiten.
Mit Auftauchen von ChatGPT 2022 habe ich prognostiziert, dass wir bald schon satt sein könnten, wenn es um eine exponentielle Steigerung von Inhalten geht, die hinsichtlich ihrer Existenz zwar zur Wirklichkeit hinzuzurechnen sind, jedoch schneller ihren Resonanzboden verlieren könnten, wenn manche die Entwicklungen unter falschen Kompromissen hinsichtlich ihrer Moral akzelerieren.
In seinem Buch »Capitalism and Crisis (How to fix them)« schreibt Colin Mayer über diesen Reduktionismus, der diese Systematik durch Akzeleration ad absurdum führen könnte.
Underpinning current notions of systems is somethin very different – one of the most pervasive and influential concepts in existence– reductionism – the idea that everything can and should be reduced to its constituent parts1.
Die drei Beispiele aus dem Forbes Newsletter Prompt von gestern veranschaulichen deutlich, welche Hoffnung Unternehmungen in die Tatsache setzen, uns die Welt mithilfe von Datenmodellen näherzubringen. Furchterregend daran ist, dass den Menschen kaum Zeit gegeben wird, zu einem moralischen Urteil zu kommen, wenn ethische Probleme nicht mehr im Rahmen gesellschaftlicher Deliberationen begutachtet werden können. Offenkundig verhalten sich einige Systeme gemäß ihrer Möglichkeiten. Dabei treffen die Entwicklungen um ein global organisiertes Phänomen wie generativer KI auf unterschiedlich ausgeprägte digitale Kompetenzen, die einen moralischen Diskurs erst erlauben würde. Eigentlich ist es noch schlimmer. Die Moral selbst fehlt oder wurde in den letzten Jahrzehnten hinsichtlich gesamtgesellschaftlicher Einsichten sträflich vernachlässigt. Die in anderen Bereichen zur Marktradikalisierung pervertierenden Systeme scheinen zu legitimieren, was wir jetzt innerhalb einer vermutlich halben Dekade erleben. Eine Veräußerung gesellschaftlicher Grundprinzipien vor dem Hintergrund einer nicht mehr zu bewältigenden Komplexität für den einzelnen Diskursteilnehmer.
Das klingt paradox, wenn ich oben mit Verweis auf Colin Mayer gesagt habe, Datenmodelle sind der Versuch, unsere Wirklichkeit in ihre Bestandteile zu zerlegen, um damit zu rechnen und zu günstigerem Umgang mit der Komplexität zu kommen. Freundlich formuliert.
Das Gegenteil ist der Fall. Die Undurchsichtigkeit und Versäumnisse, als Gesellschaft ein Wörtchen mitreden zu können, steigern die Wirklichkeit ins komplex Maximale. Es bleibt dann außerdem kaum Zeit, sich gütlich zu irren. Hinzu kommt, dass wir vielleicht bald schon bereuen könnten, dass wir dem Aufruf gefolgt sind, uns als Prosument am Befüllen des Internets zu beteiligen. Nämlich dann, wenn wir bis auf wenige Anekdoten selbst betroffen sind, weil der Datenschatz, den wir anhäuften, uns wie eine Lawine aus Perversionen die Luft raubt, die wir Freiheit nannten.
Der Mensch ist ein vernunftbegabtes Wesen mit emergenten Eigenschaften, die sich nicht als System verstehen lassen. Daher wirken auf mich alle Datenmodelle, mit denen wir glauben, künstlich intelligent zu sein, als unzureichend. Bitte nicht falsch verstehen. Sicher lässt sich die Intelligenz des Menschen steigern. Nicht die Maschinen, sondern wir werden schlauer, wenn wir jene geeigneten Nutzen (Use Cases) finden, um unser Hiersein neu zu rahmen. Bleibt die Moral auf der Strecke, weil wir das Aufkommen dieser neuen Dimensionen von Intelligenz hinsichtlich einer sich Weg bahnenden digitalen Dialektik nicht mehr Schritt halten, landen wir unweigerlich in der Ernüchterung eines instrumentellen Antirealismus und seinem totalitären Wirken, noch bevor wir von der sogenannten künstlichen Intelligenz profitiert haben.
Mayer, C. (2023). Capitalism and Crises. In Oxford University Press eBooks. https://doi.org/10.1093/oso/9780198887942.001.0001,S. 26 (Reductionism ad Absurdum)