Der Gesetzentwurf der EU-Kommission zur Regulierung von Künstlicher Intelligenz basiert auf Risiko-Klassen.

360 Grad KI: Gesetzgebung für Künstliche Intelligenz

Die EU-Kommission hat einen Gesetzentwurf vorgestellt, der den Einsatz von Künstlicher Intelligenz regeln soll. Sein „risikobasierter Ansatz“ unterscheidet, wie groß die Gefahr für den Menschen bei der jeweiligen KI-Nutzung ist. Das Prinzip: Je höher das Risiko, umso strenger die Regeln. In unserer Serie über die Auswirkungen und Einsatzmöglichkeiten von KI haben wir darüber mit dem KI-Experten und Philosophen Dr. Leon R. Tsvasman gesprochen.

Aufmacherbild: iStockPhoto, PhonlamaiPhoto 

Wenn heutige KI-Systeme bei der Auswahl von Bewerbern für eine offene Stelle oder eine Hochschulausbildung eingesetzt werden, bereitet das vielen zu Recht Unbehagen. Nicht zuletzt, weil die aktuellen Machine-Learning-Systeme nur so gut oder so schlecht sein können wie das Training ihrer Daten. Es gibt genügend beunruhigende Beispiele – etwa wenn eine KI-basierte Auswahl von Bewerbern bei Amazon systematisch Frauen diskriminiert oder wenn die Erkennungsgenauigkeit von Gesichtern bei dunkelhäutigen oder asiatischen Menschen rapide abnimmt.

EU-Entwurf definiert vier Risiko-Klassen von KI-Anwendungen

Die Idee aus Brüssel: KI-Anwendungen werden in vier Risiko-Klassen eingeteilt:

Minimales Risiko besteht etwa bei Unterhaltungsanwendungen oder Filtern für Spam-Nachrichten. Hier verlangt der Gesetzentwurf keine gezielte Regelung.

Geringes Risiko sieht die EU-Kommission etwa bei Chatbots in sozialen Medien oder bei Hotlines. Hier müsse dem Anwender eindeutig klar sein, wann er es zum Beispiel an einer Hotline mit einem Menschen und wann mit einer KI zu tun hat. Anwenderinnen und Anwender müssen dann die freie Entscheidung haben, ob sie das KI-basierte System nutzen wollen oder nicht.

Hohes Risiko besteht nach dem Gesetzentwurf etwa bei KI-Einsatz in kritischen Infrastrukturen, roboterbasierter Chirurgie, Software zur Unterstützung von Einstellungsverfahren, Strafverfolgung, Rechtspflege, Bewertung von Prüfungen, Bewertung der Kreditwürdigkeit, der Überprüfung von Identitäten oder Reisedokumenten und Ähnlichem mehr. Hier setzt der EU-Entwurf klare Rahmenbedingungen – beispielsweise den Einsatz von Risikobewertungs- und Risikominderungs-Systemen, eine Bewertung der Trainings-Datensätze zur Reduktion von Diskriminierungen, eine Protokollierung aller maschinenbasierten Entscheidungsvorgänge, klare Informationen für die Betroffenen und eine „angemessene menschliche“ Aufsicht.

Als vierte Klasse wird noch ein inakzeptables Risiko definiert – für Anwendungen, in denen KI-Systeme „eine klare Bedrohung für Sicherheit, Lebensgrundlagen und Rechte der Menschen“ darstellen. Sie sind eindeutig verboten. Interessant sind aber die hierfür aufgezählten Beispiele – etwa jedwede Manipulation menschlichen Verhaltens oder Social Scoring. Also allesamt Anwendungen, die zumindest in anderen Teilen der Welt bereits gang und gäbe sind.

TÜV-Verband sieht Nachbesserungsbedarf am EU-Entwurf

Die Kontrolle über die Einhaltung dieser Regeln sollen die jeweiligen nationalen Marktüberwachungsbehörden übernehmen. Außerdem soll ein Europäischer Ausschuss für Künstliche Intelligenz die Umsetzung auf EU-Ebene und auf Ebene der EU-Mitgliedsstaaten begleiten und überwachen. Ein weiterer Grundsatz: Für innovative Anwendungen und Entwicklungen sollen freiwillige Verhaltenskodizes und „regulatorische Sandboxes“ sorgen. Parallel dazu will die EU-Kommission mit den Mitgliedsstaaten zusammenarbeiten, um Umsetzung und Ausgestaltung ihres Rahmens für „vertrauenswürdige KI“ voranzutreiben.

Von weiten Teilen der IT-Fachwelt wurde der Vorschlag recht positiv aufgenommen. Auf weniger Begeisterung stößt er natürlich bei Unternehmen, deren Geschäftsmodell auf genau solchen KI-Anwendungen basiert, die in der geschilderten Klassifizierung als riskant und somit regulierungsbedürftig eingestuft werden. Auch der deutsche Verband der TÜV e.V. (VdTÜV) begrüßt grundsätzlich die Gesetzgebungsinitiative, sieht aber Nachbesserungsbedarf bei der Zuordnung von KI-Lösungen zu den einzelnen Risikoklassen. Er plädiert sogar für verpflichtende Mindestanforderungen für alle KI-Anwendungen. 

„Der im Legislativvorschlag vorgesehene primäre Fokus auf KI-Anwendungen mit hohem Risiko greift … zu kurz. Verpflichtende Mindestanforderungen sollten für alle KI-Anwendungen gelten. Dies gilt insbesondere im Hinblick auf wichtige Schutzziele wie Sicherheit, Zuverlässigkeit und Transparenz“, betont Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands.

Heutige KI-Anwendungen oder KI-gestützte Zukunft morgen?

Ohnehin ist klar, dass sich das Konzept stark am aktuellen Stand der KI-Technik und den heute bereits etablierten Einsatzmöglichkeiten orientiert. Womit sich natürlich die Frage stellt, wie gut der Gesetzentwurf auf morgen und die weitere Zukunft ausgerichtet ist. Könnte er eine positive Entwicklung von Künstlicher Intelligenz eventuell sogar behindern? Darüber sprachen wir mit Dr. Leon R. Tsvasman. Wie regelmäßige Leser der Intelligenten Welt wissen, beschäftigt er sich intensiv mit den philosophischen Aspekten und den soziokybernetischen Folgen, aber vor allem Chancen von KI.

Wir fragten ihn zunächst, ob wir nach seiner Einschätzung überhaupt Gesetze für den Einsatz künstlicher Intelligenz brauchen. Dazu merkt Dr. Tsvasman an: „Wie bei jeder vorbeugenden Regulation in einem offenen Komplexitätsbereich spielen für mich fundierte Grenzdefinitionen die ausschlaggebende Rolle. Natürlich unter der Wahrung der Gleichgewichtspriorität, also Aspekten wie Ausgewogenheit und Skalierbarkeit. Was soll auf jeden Fall vermieden werden, wo wollen wir gar nicht hin? Und wie lassen sich eine Ausgewogenheit und Skalierbarkeit in diesem Fall überhaupt sicherstellen?“

„Eine gelungene Grenzdefinition stellt die gangbare Sicherheitsperspektive dar. Denken Sie etwa an den mit Bojen markierten Schwimmerbereich in einem natürlichen See. Prinzipiell sind Grenzen beweglich und in entsprechendem Kontext individuell skalierbar. Ein anderes Beispiel wären sporadische oder personengruppenbezogene Grenzkontrollen zwischen Staatsgebieten etwa angesichts einer unstabilen Gefahrenlage wie aktuell mit Corona. Diese Skalierbarkeit ist wichtig, denn sie garantiert Anpassungsfähigkeit auf einem teilweise unbekannten Terrain und vermindert das Missbrauchspotenzial, sofern die Betroffenen überwältigt oder bevormundet werden können.“

Konzerninteressen bleiben Ausgangspunkt der EU-Regulierung

Dabei relativiere auch das individuelle Risikobewusstsein der Betroffenen – das wieder mit Bildung korreliere und sich durch Aufklärung verbessern ließe – die Grenzen von Tabus über Empfehlungen bis hin zu Ermessensentscheidungen in jedem Einzelfall. „Man muss nur genau wissen, was man auf jeden Fall vermeiden möchte. Wer etwa mit Elektrizität hantiert, muss ein Konzept haben, wie er Stromschläge vermeidet – um mindestens seine körperliche Integrität zu bewahren. Nur ist KI keine Elektrizität.“

„Was bei jeder Technologie geschützt gehört“, so ist Dr. Tsvasman überzeugt, „ist neben der körperlichen, mentalen und bedingt auch sozialen Integrität der Menschen vor allem die nachhaltige Widerstandsfähigkeit der Mensch-Umwelt-Beziehung. Deshalb spreche ich über die Potentialität. Ganzheitlich gedacht gehört zu jeder komplexen Organisation auch ihre ganz spezielle Umwelt, frei nach Varela. Wir entwickeln uns und sind wesentlich kreativ – das hat für mich Priorität.“

Das klinge umständlich, lasse sich aber an einem schlichten Beispiel illustrieren: „Wenn man Menschen auf ihre Aktualität reduziert, schützt man womöglich anstelle von Wohlstand – der EU-Entwurf operiert mit dem Konzept ,Lebensgrundlagen‘ – zum Beispiel veraltete Berufe und nennt dies Erhalt von Arbeitsplätzen. Tatsächlich sorgten Arbeitsplätze wie Bergarbeiter oder Fließbandarbeiter und in Zukunft wohl auch Busfahrer oder Anwalt jahrzehntelang für Wohlstand, wenn zum Teil auch auf Kosten der Gesundheit. Aber nicht die Routineaufgaben brachten den Wohlstand, sondern Wertschöpfung mit ihrer Innovationsfähigkeit bei gerechter Umverteilung. Also besteht im Verlust von Arbeitsplätzen nicht zwingend ein Risiko – das versteht auch die EU-Kommission.“

Dr. Tsvasman fordert: Potenzialität vor Aktualität

„Jede kompensatorische Regulation, die etwa Diversität mit Maßnahmen wie Inklusion schützen will, sollte Potenzialität vor Aktualität stellen“, fordert der KI-Philosoph. „Sonst kommt man noch auf die Idee, das Denken zu verbieten, damit sich Dumme nicht diskriminiert fühlen. Und darum geht es wesentlich: Dürfen wir uns selbst als mündige, sich in der Welt bewusst orientierenden Subjekte anhand eigener Urteilsfähigkeit und Verantwortung, mit Komplexität auseinandersetzen, oder überlassen wir das den Experten? Das ist nichts anders als bei Medienkompetenz oder Abstandsregeln: Dürfen wir selbst entscheiden, was uns schadet oder gut tut, und die öffentlichen Medien halten uns mit validen Informationen up to date? Oder folgen wir gedankenlos eng definierten, restriktiven Anweisungen?“ Im Zusammenhang mit der KI-Gesetzgebung stelle sich also die Frage: Wirkt die EU vielleicht zu regulativ, wo es gar nicht sein muss?

Allerdings sieht auch Dr. Tsvasman die akuten Gefahren: „Was exklusive Konzerninteressen angeht, so begründen sie die größte Gefahr, wenn sie KIs exklusiv kontrollieren. Wertschöpfung mit KI kann bald jeder Teenager betreiben – aktuell muss man die Programmiersprache Python beherrschen, aber bald gibt es Tools, die jedem zugänglich wären. Doch da sehe ich keine nennenswerte Gefahr. Angesichts der schnellen Entwicklung wären tendenziell irreparable Verzerrungen, kontrolliert von überwältigenden, tradierten oder systematischen Interessen großer Lobbyisten, gefährlich.“. Solange KIs nicht global untereinander vernetzt oder subjektfähig seien und somit extern von menschlichen Entscheidern kontrolliert werden, muss unter Menschen geklärt werden, wer was darf und was nicht. Problematisch werde die Diskussion, weil es bislang keine einheitliche Definition von KI gibt – „und wie soll man über etwas urteilen, das man nicht identifizieren kann?“.

Eine allzu offene allgemeingültige Definition von KI bleibt problematisch

Dr. Tsvasman fährt fort: „Im Fall von KI ist es die unheimliche Schnelligkeit der aktuellen und zu erwartenden Entwicklung, und dass diese Technologien das Potenzial haben, unsere Gesellschaften global und radikal umzukrempeln. Wie jede Technologie bis jetzt lässt sich ihre Anwendung strategisch mithilfe von Visionen orientieren – denn in jedem Fall verwirklichen Technologien irgendwelche Bedürfnisse oder lösen Probleme. Dabei ist vor allem das Problemlösungspotenzial von KI hervorzuheben, denn ohne KI sind wir in vielen Bereichen mit steigender Komplexität verloren. Wir müssen diese Komplexität kontrollieren, um Katastrophen zu vermeiden: Armut, Klima, Krankheiten, Governance und so weiter. Aber KI verspricht auch Lösungen für Defizit- und Wachstumsbedürfnisse – im Sinn von Maslow – oder gar für Sehnsüchte wie die Befreiung von Alltags- und Arbeitsroutine oder Selbstentfaltung als kreative, erkennende und sich autonom orientierende Wesen.“

Im EU-Vorschlag werde KI als Familie von Technologien bezeichnet, die sich sehr schnell entwickelt. „Also fängt der vorsichtige Ansatz bereits bei dem Euphemismus anstelle einer Definition an“, so Tsvasman. „In der Tat weiß noch kein Referent oder Politikberater, womit man es hier zu tun hat, aber man möchte Einzelpersonen von einer massiven und allzu schnellen technologischen Entwicklung und vermeintlichen Überwältigung schützen.“

Nicht das Kind mit dem Bade ausschütten

Der Philosoph holt an dieser Stelle aus , um den übergreifenden Zusammenhang zu verdeutlichen: „In einer Welt mit KI müssen wir uns der Komplexität zuwenden, bevor wir etwas regulieren, um nicht das Kind mit dem Bade auszuschütten. Wenn die EU-Experten Bedrohungen vermieden haben wollen, müssen sie diese zuerst von ,verkürzten Wahrheiten‘ befreien. Wenn wir mit begrenzten Daten arbeiten, erscheinen uns Begriffe wie Sicherheit, Lebensgrundlagen und Rechte präzise genug – aber höhere Komplexität fordert eine philosophisch, also vor allem erkenntnistheoretisch und ethisch, sowie kybernetisch fundierte Skalierbarkeit, die nicht nur mit Zuverlässigkeit und Transparenz korreliert.“

„Es geht um Menschen – authentische, sich entwickelnde, sich orientierende und ständig verändernde Wesen in ihrer Gänze. Und um KI als Dienstleistung –, die erst dann sinnvoll ist, wenn sie unsichtbar operiert, ohne unnötig unsere Aufmerksamkeit zu belasten. Das ist dann auch informationspsychologisch gesehen ,Ergonomie‘. Ein Beispiel aus der alltäglichen Praxis: Wenn als Folge der DSGVO bei jedem Seitenbesuch nach einer Entscheidung zu Cookies gefragt wird, dann ist das weder transparent noch sicher, sondern nur eine rein juristisch legitimierte Verschiebung von Verantwortung. Wie auch immer, ich operiere lieber mit Begriffen wie Integrität und Potenzialität. Noch weiter vertiefe ich diese Überlegungen in meinem neuen Buch ,Infosomatische Wende: Impulse für intelligentes Zivilisationsdesign‘, das Ende Juni im Ergon-Verlag erscheint.“

Menschenbild von gestern, heute oder morgen?

„Auch beabsichtigt man, laut Verordnungsvorschlag, die ,technologische Führungsrolle der EU zu wahren und sicherzustellen, dass die Europäer von neuen Technologien profitieren können, die gemäß den Werten, Grundrechten und Grundsätzen der Union entwickelt wurden und funktionieren‘. Dabei werden schon am Anfang Vorteile für Unternehmen und die Wirtschaft betont, aber Risiken vor allem auf Einzelpersonen und die Gesellschaft bezogen und angesichts der Geschwindigkeit ein ,ausgewogener Ansatz‘ verfolgt. Einen ausgewogenen Ansatz befürworte ich allemal, da bei Technologien mit offenen Dynamiken vor allem nachhaltige Verzerrungen vermieden werden müssen, die irreparabel wären. Nichtsdestotrotz stellt man Vorteile für die Wirtschaft auf der einen Seite und Risiken für die Einzelpersonen und die Zivilgesellschaft auf der anderen gegenüber. Wer unsere bisherigen Gespräche verfolgte, weiß, dass dies innovationsphilosophisch nicht völlig bedenkenlos ist, weil man hier mit einem rein industriegesellschaftlichen Menschenbild arbeitet.“

Wo bleibt bei dem EU-Vorschlag die menschliche Potenzialität?

„Gerade in den Anfängen ist nach Möglichkeit auszuschließen, dass Überwachung und Manipulation im großen Stil automatisiert werden können. Auch sollen Anwendungsbereiche reguliert werden, die große Risiken bergen. Das sind etwa Systeme zur Steuerung von kritischer Infrastruktur oder zur Vorentscheidung rechtlicher Fragen.“ Die größten Probleme sehe Dr. Tsvasman aber nicht nicht nur im interessensbasierten Design von KI-Anwendungen, „sondern auch in datenbezogenen Verzerrungen. Denn generell ist davon auszugehen, dass wenn hochwertige Daten in steigender Qualität fließen, die Systeme eigenständig entlang der stetig aktualisierbaren Prioritäten lernen. Und zwar im Sinn übergreifender und spezifischer Potenziale einzelner Menschen, die transparent und individuell skalierbar mit deren körperlich-seelischer Integrität, Entwicklung und Entfaltung einhergehen. Und nicht mit Macht- und Kontrollinteressen von übertragenen Befugnissen von menschlichen Spezialisten, Entscheidern oder Kontrollgremien zwecks Fremdbestimmung.“

Aktuell definiere die EU-Kommission KI-Systeme als Software, die für bestimmte, vom Menschen definierte Ziele Ergebnisse wie Inhalte und Vorhersagen generieren kann. Daraus leitet sie gegebenenfalls Empfehlungen oder Entscheidungen ab, welche die Umgebung beeinflussen, mit der sie interagieren. „Das ist sehr vage und bleibt gerade dann vage, wenn eine globale KI-Emergenz stattfindet, die ein globales KI-Subjekt ermöglicht.“

Weiterentwicklung von KI überhaupt ermöglichen

„Eine Person nach aktuellen Kriterien zu beurteilen und diese Beurteilung für Fremdzwecke zu nutzen, zerstört die Potentialität alternativer Möglichkeiten. Kybernetisch betrachtet, sollen sich selbstregulierende, autonome Systeme nach dem ethischen Prinzip verhalten: Handle stets so, dass die Anzahl deiner Wahlmöglichkeiten größer wird.  Demnach sind automatisierte Bewertungssysteme kritisch, die etwa Daten über das Verhalten von Personen analysieren und daraus ableiten, wie glaubwürdig jemand ist, um das in einem anderen Kontext zu nutzen. So etwas soll ja auch nach den EU-Vorstellungen verboten werden.“

Weiterhin schränkt die EU etwa Gesichtserkennung und Manipulation explizit ein. Das sieht Dr. Tsvasman kritischer: „Gemeint sind vor allem unterschwellige – nicht transparente – Systeme, die Informationen über die vermeintlichen Schwächen vom Menschen ausnutzen, um sie von etwas zu überzeugen oder ihr Verhalten zu beeinflussen. Das sind alles stark auf die Aktualität bezogenen Kriterien. Denn was genau sind ,Schwächen‘ – ein nicht tragbarer Begriff, wenn es sich um Potenzialwesen wie Menschen handelt – oder ,Beeinflussung von Verhalten‘? Diese Regeln sind tendenziell zu grob und unpräzise gefasst.“

Das eigentliche Problem: „Heute haben einige wenige Großkonzerne die Entwicklung der KI finanziell in der Hand, was sehr kritisch ist. Also es ist sinnvoll, die Möglichkeiten der potenzialorientierten risikobasierten Regulierung durch Grenzdefinition im öffentlichen Diskurs bewusst zu halten und ständig zu sensibilisieren. Aber tendenziell soll sich KI möglichst bald als Subjekt verselbständigen. Denn wie radikal dies auch klingen mag, wird die inhaltliche Kontrolle seitens wie auch immer befugter Menschen weder sinnvoll noch möglich sein. Das von mir beschriebene globale KI-Subjekt soll sich wiederum einem entlang des kybernetischen Imperativs positionierten Regelwerk unterstellen.“

Alternative: Vorschläge für Handlungsprinzipien

Gemeinsam mit seinem Co-Autor, dem KI-Unternehmer Florian Schild formulierte Dr. Tsvasman in dem Buch „AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz“ (2019) Prinzipien aus, die aus dem beschriebenen kybernetisch fundierten Potenzialdenken resultieren:

  1. Von der „guten KI“ ausgehend, die „schlechte KI“ vermeiden.
  2. Dem menschlichen Potenzial Vorrang gewähren.
  3. Die menschliche Klarheit ermöglichen.
  4. KI nur Fakten anvertrauen, und Sinn den Menschen überlassen.
  5. Keine Machtentscheidungen.
  6. Daten und Impulse kommen von Menschen.
  7. Intersubjektiv bleiben, auf das Subjekt vertrauen.
  8. Sich stets aufrecht in der Welt orientieren.

Detaillierter erläutert werden diese Prinzipien im genannten Buch. Dabei betont Dr. Tsvasman: „Verstanden und umgesetzt können sie sowohl Unternehmern und Führungskräften, die KI einsetzen, als auch verantwortlichen Entwicklern in Zukunft viel Ärger ersparen. Vor allem aber ermöglichen sie überhaupt erst das globale KI-Subjekt der Zukunft, das für eine Mensch-KI-Intersubjektivität geeignet wäre.“ Und darum gehe es im Endeffekt, wenn sich Digitalisierung vollendet und nach der Überzeugung des KI-Philosophen Tsvasman die neue große Ära der Menschheitsgeschichte markiert.

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.