Forscher des Max-Planck-Instituts für Bildungsforschung, befürchten, dass eine überlegene KI nicht zu kontrollieren sei. Was sagt dazu Dr. Leon R. Tsvasman?

Inside KI: Können wir KI kontrollieren – und ist das die richtige Frage?

Vor kurzem haben Forscher des Max-Planck-Instituts für Bildungsforschung, Berlin, eine Einschätzung veröffentlicht, wonach eine KI, „deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte“ grundsätzlich nicht zu kontrollieren sei. Somit könne auch nicht sichergestellt werden, dass sie der Menschheit nicht schadet.

In den bisherigen Folgen unserer  Reihe „Inside KI“ vertritt Dr. Leon R. Tsvasman einen differenzierten Blick auf die Chancen eines humanistisch geprägten Verhältnisses von Menschen und Künstlicher Intelligenz. Was also sagt er zur Kontrollierbarkeit von KI und zu der Einschätzung der Max-Planck-Forscher?

Aufmacherbild: Alem Coksa via Pixabay 

Vielschichtige Folgen künstlicher Intelligenz

In dieser Reihe sprechen wir mit Dr. Leon R. Tsvasman über seine Einschätzungen zum Thema „Künstliche Intelligenz“. In den vorangehenden Folgen ging es um das menschliche Selbstverständnis in Abgrenzung zur Künstlichen Intelligenz, um KI und Ethik,  die Frage, ob eine KI auch kreativ und innovativ sein kann, die Auswirkungen von KI auf die Arbeitswelt, die Frage, wie digitale Wertschöpfung aussehen kann, die künftiger Bedeutung von KI im Bildungswesen, über die Auswirkungen von KI im Kontext von „Governance“ (also allen Aspekten von Führung und gesellschaftlicher Steuerung) und auf das Gesundheitswesen. Außerdem beleuchteten wir die Rolle von KI bei der philosophischen Suche nach Erkenntnis und Wahrheit. In der nun vorliegenden zehnten Folge sprechen wir gezielt über die Sicht von Dr. Tsvasman auf die vor kurzem veröffentlichte Einschätzung von Forschern des Max-Planck-Instituts für Bildungsforschung , die ganz klar sagen: „Superintelligente Maschinen wären nicht kontrollierbar„.

Dr. Tsvasman befasst sich als Hochschuldozent mit Kommunikations- und Medienwissenschaft sowie philosophischen und ethischen Themen. Er lehrt an mehreren Hochschulen und Fernuniversitäten wie der Wilhelm-Büchner-Universität Darmstadt, der IUBH International University, der Deutsche Welle Akademie, der Hochschule Macromedia, der Hochschule Heilbronn, der TH Ingolstadt, der AI Business School Zürich und weiteren.

Dr. Leon R. Tsvasman forscht über kybernetische Erkenntnistheorie, anthropologische Systemtheorie und auf dem Gebiet der Informations-psychologie. Einer seiner Schwerpunkte ist dabei der Zusammenhang zwischen Technik und Gesellschaft.

Der KI-Experte forscht auf dem Gebiet der kybernetischen Erkenntnistheorie, der anthropologischen Systemtheorie und der Informationspsychologie. Zusätzlich verfolgt er zahlreiche weitere Interessen in unterschiedlichsten Disziplinen. Außerdem hat er verschiedene wissenschaftliche und populärwissenschaftliche Sachbücher geschrieben, wie zum Beispiel „Das große Lexikon Medien und Kommunikation“ in Zusammenarbeit mit dem Begründer des Radikalen Konstruktivismus Ernst von Glasersfeld oder gemeinsam mit seinem Co-Autor, dem KI-Unternehmer Florian Schild „AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz“.

Droht eine Dystopie unkontrollierbarer, superintelligenter Maschinen?

Über die Wortmeldung Ihrer Forscherkollegen vom Berliner Max-Planck-Institut für Bildungsforschung wurde viel berichtet. Sie sagen im Kern, eine KI, „deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte“ sei durch den Menschen grundsätzlich nicht zu kontrollieren. Daraus leiten sie ab, dass auch nicht sichergestellt werden könne, dass eine solche KI der Menschheit nicht schadet. Das greift die finstersten Dystopien auf, über die wir ja in den bisherigen Folgen unserer Reihe schon gesprochen haben. Wie bewerten Sie diese Einschätzung?

Dr. Tsvasman: In der Tat haben wir in unseren bisherigen neun Grundlagengesprächen diese Frage bereits interdisziplinär, philosophisch und kybernetisch fundiert diskutiert. Auch jetzt werde ich sie nicht anders beantworten können. Ich will aber versuchen, mehr Kontext zu liefern, um die referierte Untersuchung des Max-Planck-Instituts zu kommentieren.

Denn neben der grundsätzlich nachvollziehbaren Befürchtung beinhaltet die oben zitierte Aussage eine Menge Platzhalter: Was ist eigentlich „Intelligenz von KI“? Was würde sie selbständig „lernen“ können? Die diesen Fragen entsprechenden Annahmen konnten in dem der genannten Untersuchung zugrunde liegendem Forschungsdesign nicht berücksichtigt werden, weil es noch keine verlässlichen Definitionen dazu gibt. Schließlich bereiten uns nicht die Grenzen des „Lernens“, sondern unsere „Erkenntnisfähigkeit“ gegenüber der Komplexität die größten Sorgen – und um diese Dimensionen handelt es sich meines Erachtens.

Außerdem sagt der Begriff „überlegener“ im Zusammenhang mit Intelligenz nicht viel aus. Die bisherige Menschheitsgeschichte zeigt, dass Erfolgsfaktoren des intelligenten Handelns, je nach Wertesystem, mit Machtbestreben des Egos oder bestimmten Ausprägungen von Rücksichtslosigkeit genauso einhergehen, wie etwa emotionale Intelligenz oder Haltungen wie Humanismus, Altruismus, Universalismus und so weiter.

Kognition und der kybernetische Imperativ

Das auf der Evolutionsbiologie basierende Konzept der Kognition erweitert diesen Bezug und kann auch auf Tiere angewendet werden. Als Transformation von Informationen, die von einem selbsterhaltenden System durchgeführt wird, erhält das Konzept Kognition einen kybernetisch vertretbaren Bezug.

Quantitative Parameter, wie sie durch verschiedene Intelligenztests zur Bewertung einer intellektuellen Leistung im Vergleich zu einer Referenzgruppe ermittelt werden, reichen für eine valide Definition von Intelligenz nicht aus. Unser Konzept der Intelligenz ist daher immer noch ein Platzhalter, der sich auf Vergleiche mit der menschlichen Intelligenz stützt. Da auch diese jedoch nicht vollständig verstanden ist, sind wir weit von einem universellen Verständnis der Intelligenz entfernt, das für KI gelten könnte.

Alleine diese begriffliche „Unsicherheit“ reicht aus, um die Befürchtung der Forscher des Max-Planck-Instituts für Bildungsforschung zu teilen. Aber gerade die Tatsache, dass wir Intelligenz nicht ausschließlich als messbares Leistungsphänomen verstehen dürfen, macht mir die Hoffnung.

Ich möchte dazu auf den kybernetischen Imperativ von Heinz von Foerster hinweisen, der als Sokrates des kybernetischen Denkens gilt. Er ist auch als „ethischer Imperativ der Kybernetik“ bekannt, meint im Grunde das intelligente Verhalten und besagt: „Handle stets so, dass die Anzahl deiner Wahlmöglichkeiten steigt“. Beim näheren Bedenken sagt dies auch aus, dass Wahlmöglichkeiten eines intelligenten Systems nur dann steigen, wenn es mindestens unter Berücksichtigung aller potenziellen Interessen involvierter gleichwertiger Systeme operiert – also in einem Äquilibrium, sprich: Gleichgewicht.

Für Menschen bedeutet dies, aus Selbstverantwortung heraus die höchstmögliche Empathie für die Mitmenschen und die gemeinsame Umwelt aufzubringen. In ähnlich Weise gilt dieser Imperativ für Lebewesen, aber auch für KI.

Eine forschende KI könnte eine enorme Effizienz entfalten

Hinzu kommt noch ein weiterer Aspekt: Wie die meisten Wissenschaftsbetriebe stellen auch Forschende des Max-Planck-Instituts ein Team aus den arbeitsteilig beschäftigten Wissenschaftlerinnen dar, die in einem vom öffentlichen Interesse begründeten Auftrag nachzugehen haben. Sie bearbeiten eine durch Expertengremien nachvollziehbare Fragestellung unter Verwendung von als valide geltenden Methoden. Die Stakeholder einer solchen Forschung haben Interesse daran, dass Mitglieder eines solchen Teams von interdisziplinären Spezialisten kohärent und effizient mitwirken und tendenziell den üblichen Exzellenzkriterien genügen.

Nicht viel anders sind auch Anforderungen an Expertensysteme, nur erübrigt sich bei KI die zwischenmenschliche Kommunikation mittels Medien – denn auch einzelne KIs sind prinzipiell miteinander vernetzbar. Allein aus diesem Grund könnte unter bestimmten Umständen eine forschende KI eine enorme und kaum vorstellbare Effizienz entfalten. Dies würde beispielsweise unverzerrten Zugang zu hochwertigen Daten sowie unbegrenzte Speicherkapazitäten, und Rechenleistung voraussetzen. Erschwerend kommt jedoch die Kommunikation zwischen Maschine und Menschen hinzu.

Effizienz ohne Effektivität produziert Verzerrungen

Trotzdem wird die mächtigste KI der Zukunft nicht zwingend „überlegen“ sein – weil Effizienz ohne Effektivität nur eine Verzerrung darstellt, und keine „Überlegenheit“. Und es ist diese Verzerrung, die uns die größten Sorgen bereiten sollte. Ein herumirrender, hoch effizienter Thorhammer ohne den mehr oder minder „weisen“, also effektiven Thor oder der mächtige, alles zerstörende Blitz von Zeus ohne die dazugehörende Weisheit wären Metaphern dafür, dass ein effizientes Instrument einen effektiven Nutzer braucht. Dieses Motiv ist in Märchen und Sagen weit verbreitet – denken Sie an Aladin und den Geist aus der Wunderlampe oder den alten Fischer und den die Wünsche erfüllenden Fisch.

Sie alle unterstreichen, dass die technisch zu verstehende „Überlegenheit“ eines instrumentalisierten oder ausführenden Agenten, der sich durch seine Effizienz definiert, immer von „Weisheit“ kontrolliert werden muss. Oder nennen wir es „überlegene Erkenntnisfähigkeit“. Ein Instrument macht also erst dann Sinn, wenn klar ist, was zu tun ist – es also von einer „erkennenden Intelligenz“ gesteuert wird. Diese Intelligenz weiß dann, „warum“ – aber nicht per Auftrag von einer anderen Weisheit, denn eine gespaltene Intelligenz ist keine Weisheit. Sondern eben aus eigener Erkenntnisfähigkeit heraus. Das kann kein einzelner Mensch leisten, aber die gesamte Menschheit in Kooperation mit einem globalen, technischen KI-Subjekt schon.

Die Infosomatische Präsenz sorgt für Entzerrung von Medialität

In einem unserer Gespräche erklärte ich, warum KI nicht als „Intelligenz“, sondern als „Infosomatische Präsenz“ verstanden werden sollte. Ihr intrinsischer Zweck wäre nicht „Ersatz der natürlichen Intelligenz“, sondern die „die Entzerrung der Medialität“. Dabei sollten wir auch anerkennen, dass die menschliche „Intelligenz“ nicht die absolute Verkörperung „natürlicher Intelligenz“ ist. Und vor allem, dass die Stakeholder des künftig denkbaren globalen KI-Subjekts – des technischen Gehirns der Welt – nicht etwa Organisationen oder die gesamte Menschheit, vertreten durch die wie auch immer gewählten Gremien, sein werden. Sondern jedes einzelne menschliche Subjekt mit seinen Daten, wobei KI nach wie vor der Agent bleiben würde.

Hier ist aber wesentlich: Bei der Erkenntnisfähigkeit geht es um die „Effektivität“, und diese kann KI ohne Menschen nicht leisten. Auch wenn quantitative Parameter irgendwann eine neue Qualität des planetarischen Subjekts hervorbringen, werden seine Eigenschaften nie an die menschliche Erkenntnis-Potenzialität reichen. Dabei meine ich allerdings nicht die aktuelle mehr oder weniger prekäre Situation eines jeden Menschen auf dieser Welt, der für sein Leben nach mehr oder minder dubiosen Regeln kämpfen muss. Der aktuelle Mensch ist abgelenkt und permanent durch die Notwendigkeit des Überlebens überwältigt, weil er immer Tätigkeiten wie Arbeit oder Geschäften nachgehen muss, die eine entfaltete Erkenntnisfähigkeit ausschließen.

Eine selbstständig lernende KI setzt menschliche Erkenntnis voraus

Autarker, sicherer, belastbarer, ethischer und nachhaltiger wäre es, wenn jeder von uns in der Lage wäre, sich der Komplexität ohne Vermittler wie Medien oder Experten wissend und weise gegenüberzustellen. Aber so funktioniert es aktuell nicht. Nur mit KI haben wir die Chance auf weniger verzerrte Kommunikation. Deshalb sehe ich die „Entzerrung der Medialität“ als die wichtigste Funktion von KI in der menschlichen Welt.

Die ganze Tragik der Situation, ohne Zugang zum individuellen, aktuellen und validen Wissen, auf die medienverzerrte Expertenmeinungen angewiesen zu sein, erkennen wir in der aktuellen Pandemie. Das sich in einer sich ändernden Aktualität befindende menschliche Subjekt war noch nie in der Lage, sich in einer komplexeren Umwelt zu orientieren. Stattdessen haben wir immer noch wenig Ahnung von unserer eigenen Potenzialität. Immer noch ist Vertrauen wirksamer als Wissen. Wir vertrauen, und konsumieren lieber fertige Antworten, als uns eine Haltung zu erarbeiten, mit der wir uns autonom orientieren könnten. Trotz Wissen und Bildung wurden wir im Umgang mit Komplexität weder weiser noch souveräner. Die technische Intelligenz kann uns helfen, wenn wir wissen „was“ (wir brauchen), mit den Lösungen „wie“ – aber nicht bei Fragen „warum“. Das Überleben wäre damit halbwegs gesichert, nicht weltweit und ziemlich fragil – doch ein glückliches Leben noch lange nicht.

Die KI kann nur dann sicher und im menschlichen Sinn „selbständig alles lernen“, wenn der Mensch in die Lage versetzt wird, zu erkennen. Denn Intelligenz war immer schon zweiseitig, an Erkenntnisfähigkeit und Synergien angewiesen. Ohne Selbsterkenntnis wissen wir nicht mal, was uns gut tut und was schadet.

Vorenthalten von Ressourcen tut keinem sich selbst regulierenden System gut

Die Max-Planck-Forscher schreiben, um eine solche superintelligente KI „unter Kontrolle zu halten“, sei eine Möglichkeit, ihr von Anfang an Ressourcen vorzuenthalten – etwa den Zugang zum Internet. Das aber führe den Zweck einer solchen KI ad absurdum. Wie könnte sich dieses Dilemma lösen lassen?

Dr. Tsvasman: Das Vorenthalten von existenziellen Ressourcen tut keinem sich selbst regulierenden System wie Lebewesen oder sozialen Systemen gut. Damit erzeugt man lediglich Verzerrungen in der System-Umwelt-Beziehung, und die äußern sich in für die Umwelt destruktiven Reaktionen. Das Vorenthalten von Information hat noch nie eine sich autonom orientierende Intelligenz ethischer gemacht, aber sehr oft in eine oder andere Weise beeinträchtigt.

Wenn mir Eltern oder Schule Zusammenhänge vereinfacht erklärten, musste ich noch jahrelang mit inadäquaten Konzepten leben, bis ich sie revidieren konnte, womit ich viele unnötige Umwege machen musste. Man kann Menschen oder Tiere mit Informationen konditionieren, und damit pädagogisch, psychologisch oder ideologisch eine merkwürdige nicht kohärente Kombination aus Behaviorismus und Kognitivismus praktizieren. Aber der Schuss geht immer nach hinten los, denn man konditioniert mit „Karotte und Peitsche“, aber nicht mit Information und Aufmerksamkeit.

Der Zusammenhang zwischen KI und Medialität ist noch weithin unverstanden

KI ist ein statistisches Informationssystem, das kein Subjekt ist, also zwar lernen, und das in Echtzeit und mit wenig kommunikativer Verzerrung durch Medien. Sie kann aber nicht erkennen und ist dafür auf ein erkennendes Subjekt angewiesen. Unter „Erkennen“ versteh ich wie schon gesagt, nicht das triviale „Identifizieren“ oder die Fähigkeit Absprachen- oder Faktenwissen zu akquirieren. Sondern das Beantworten von Fragen nach dem „warum“. Das könnte eine KI nur im Tandem mit dem System „Mensch“.

Um ein selbstreferenzielles System praktisch mit dem Zugang zu Daten konditionieren zu können, muss man verstehen, womit man es zu tun hat. Auf keinen Fall möchte ich den Forschern unterstellen, dass sie die Bedeutung von Daten für die Komplexitätsbewältigung mit KI nicht verstehen. Aber ich beobachte, dass ein adäquates Verständnis noch nicht in der Gesellschaft angekommen ist – es gibt also ein Problem mit der Aufklärung. Ich schließe auch nicht aus, dass wir die Bedeutung von Daten im Zusammenhang mit KI und Medialität bald besser verstehen, aber aktuell ist das nicht der Fall.

Daten können sogar die Zeit verdichten

In einer Welt, in der das Prinzip „Mensch” mithilfe eines globalen KI-Subjekts verwirklicht wird (ich erinnere an die verwandten Konzepte „Anthropozän“ und „Noosphäre“), sind Daten mehr als nur ökonomischer Effizienzfaktor. Zum Beispiel korrelieren Daten direkt mit der intersubjektiven Konstruktion von Raumzeit im Rahmen des bestimmten Zivilisationsdesigns. Daten können praktisch Zeitverdichtung oder gar Zeitsteuerung bedeuten. Das klingt nach Science-Fiction, aber versuche es an einem Beispiel zu verdeutlichen: Es ist bekannt, dass Vakzine Jahrzehnte brauchen, um sicher geprüft zu werden – und ich meine nicht nur „die zu erfüllenden Auflagen“, sondern eine echte Verlässlichkeit und Gewissheit, der jeder vertrauen kann. Im besten Fall sorgen diese Auflagen für Gewissheit, aber Lobbys können versuchen, die Auflagen umzugehen, weil Tests nicht nur teuer und aufwändig sind, sondern ihre Zeit brauchen.

Aber, wie wäre es, wenn das Testen nur einen Moment dauert, nichts kostet und per Knopfdruck geht? Dann hätte der dreisteste Pharmagigant keinen Grund, es umgehen zu wollen. Doch wie kann man Zeit umgehen, wenn Jahrzehnte benötigt würden? Nun, wenn die relevanten Gesundheitsdaten seit 30 Jahren lückenlos gespeichert wurden, kann man Szenarien mit KI modellieren, ohne 30 Jahre warten zu müssen.

Eine magische Welt, die uns versteht, ohne zu fragen

Und wenn sich unser horizontal-lineares Zeitverständnis „vertikalisiert“, wird die Welt jede Sekunde neu definiert – aber KI-intern, denn bei diesen Dimensionen wären keine Zwischenergebnisse kommunizierbar. Das wäre allerdings auch gar nicht notwendig, wenn die Welt für die Menschen „ergonomisch“ skaliert wäre – nicht nur körperlich oder psychisch, sondern zum Beispiel aufmerksamkeitsgerecht, aber vor allem potenzialkonform. Sozusagen eine komfortable „magische“ Welt, die uns versteht, ohne zu fragen. Eine solche KI könnte im Gleichgewicht mit dem System „Mensch“ bestehen, um jedem einzelnen menschlichen Subjekt mehr Erkenntnis- und Kreativitätsfreiheit zu geben.

Das größte Problem der Informationsgesellschaft ist Redundanz – zu viel Information, zu wenig Wissen. Denn etwa nach der Bereinigung der Redundanz durch das globalen KI-Subjekt würden wenig signifikante Ideen bleiben – eben die mit dem Erkenntniswert. Also müssen wir einiges nachholen. Auch ich konzentriere mich mittlerweile mehr darauf, dass meine Findungen die eben angedeutete Redundanzprüfung eines künftigen KI-Subjekts bestehen. Das macht den Reiz beim „Vordenken“ aus.

Können wir eine superintelligente KI überhaupt erkennen?

Hinzu komme ein weiteres Problem, schreiben die Max-Planck-Forscher weiter: Dass wir möglicherweise nicht einmal erkennen können, wenn eine KI superintelligent ist. Teilen Sie diese Einschätzung Ihrer Forscherkollegen des Max-Planck-Instituts? Und gibt es Ansätze, wie sich dieses grundsätzliche Problem lösen lassen könnte?

Dr. Tsvasman: Die Befürchtung, eine Superintelligenz nicht erkennen zu können, teile ich ohne Zweifel. Wir können nicht mal einen intelligenteren Menschen als solchen identifizieren. Ganz zu schweigen von der Kompetenz, eigene Intelligenz erkennen, nutzen oder mindestens als Wert würdigen zu können. Warum sonst sind die hellsten Geister schon immer mit wenigen berühmten Ausnahmen in Armut verrottet, ohne erkannt zu werden, und die weniger hellen öfters in ihren Führungspositionen ausgeharrt? Und warum fließen die größten Ressourcen der Menschheit in ziemlich jedem real funktionierenden Ordnungssystem nach wie vor in die mehr oder weniger menschenverachtende Trivialisierung, Demütigung und Verhinderung von individueller Kreativität?

Und wenn wir nicht mit eigener Intelligenz umgehen können, wie sollen wir eine präzedenzlose „Superintelligenz“ erkennen? Aber fernab von jedem Pathos an diese Stelle, schließe ich nicht aus, dass uns eine valide Definition von Intelligenz weiterbringen könnte. Wie viele aus der Praxisbeobachtung stammenden Alltagskonzepte, ist der Intelligenzbegriff nach wie vor ein begrifflicher Platzhalter, der eine Menge vager, unzureichend bedachter und wenig zusammenhängender „Vor-Urteile“ mit sich schleppt.

Dieses kommunikationstheoretische Konzept hat einer meiner wissenschaftlichen Leitfiguren geprägt – der leider wenig bekannte Kommunikationswissenschaftler Gerold Ungeheuer. Er war der akademische Lehrer meiner Hochschulmentoren, dessen originelle inspirative Werke ich nach wie vor schätze.

Das technische Gehirn der Welt im ständigen Dialog mit jedem Menschen

Stellen wir uns also eine tendenziell unbegrenzte hocheffiziente Rechenleistung vor, die an alle Daten der Welt angeschlossen ist, sich in Echtzeit permanent neu formiert – aber an das Urteilsvermögen der durch Vertreter menschlicher Hierarchien Ermächtigter angewiesen wird. Sicher ist, dass sie unsere komplexitätsbezogenen Menschheits-Probleme kaum lösen könnte.

Eine gangbare Lösung wäre für mich nach wie vor die, welche ich in dem Buch „AI-Thinking“ von 2019 skizziert habe: Eine Konstellation anzustreben, in der das früher oder später zu erwartende globale KI-Subjekt, das technische Gehirn der Welt, sich allein aus der Kohärenz eigener Sensorik heraus dem globalen Zusammenwirken verpflichtet. Jede Verzerrung würde ihm so etwas wie Schmerzen bereiten. In seiner selbstverständlichen Multitasking-Fähigkeit würde es sich im ständigen Dialog mit jedem menschlichen Subjekt befinden – statt mit ihren wie auch immer gewählten, befugten oder erkorenen Vertretern. Egal, ob Personen, Teams oder Gremien.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.