Spenden

„Intransparenz ist gefährlich“

KI macht lustige Bilder. Und prüft an den EU-Außengrenzen Asylbewerber*innen mit zweifelhaften Methoden. KI hilft uns bei der Auswahl des Feierabendfilms. Und nimmt gleichzeitig eine undurchsichtige Einschätzung unserer Finanzen vor. Kurz gesagt: Künstliche Intelligenz ist überall und sie ist vielfältig.

Risiken von KI berücksichtigen

 

Künstliche Intelligenz aus menschenrechtlicher Perspektive

KI hat viele positive Seiten und bereichert unser Leben. Gleichzeitig kann sie aber auch Menschen diskriminieren, Grundrechte einschränken und unsere Demokratie bedrohen. Wo dies bereits geschieht und wie es sich verhindern lässt, darüber haben wir mit Kilian Vieth-Ditlmann, Leiter des Policy-Teams bei AlgorithmWatch, gesprochen.

Die Toeslagenaffaire

Künstliche Intelligenz lernt von den Daten, mit denen sie gefüttert wird. Sind diese diskriminierend, ist sie es auch. Einen besonders schweren und folgenreichen Fall einer solchen Diskriminierung berichtet Vieth-Ditlmann aus den Niederlanden. Bei der so genannten Toeslagenaffaire (dt. Kindergeldaffäre) hatten die Steuerbehörden eine KI eingesetzt, um Betrugsfällen beim Kindergeldzuschlag auf die Spur zu kommen. „Hierfür erstellte eine KI Risikoprofile; alleine die nicht-niederländische Nationalität der Antragsteller*innen war dabei ein Risikofaktor. Zehntausende Familien, ein Großteil von ihnen mit geringem Einkommen und migrantischem Hintergrund, wurden auf dieser Grundlage zu Unrecht bestraft. Sie mussten Kindergeldzuschläge zurückerstatten, was in unzähligen Fällen den finanziellen Bankrott und die Unterbringung von Kindern in Pflegefamilien zur Folge hatte.“ Die Offenlegung dieses Skandals führte 2021 zum Rücktritt des gesamten niederländischen Kabinetts.

KI im Asylprozess

Staatliche Stellen nutzen Künstliche Intelligenz für viele Prozesse, etwa an den EU-Außengrenzen. So setzt das Bundesamt für Migration und Flüchtlinge (BAMF) schon seit 2020 einen so genannten Dialektidentifizierungsassistenten ein. „Dieses System soll erkennen, ob Asylbewerber*innen einen Dialekt sprechen, der zu ihren Angaben passt. Ein hochproblematisches Vorgehen, denn der Dialekt ist natürlich keinerlei Beweis dafür, wo ein Mensch wohnt.“ Künftig werden auch die biometrischen Gesichtsdaten von Asylbewerber*innen, die keinen Pass vorweisen können, vom BAMF mit Hilfe von KI mit sämtlichen öffentlichen Internetinhalten abgeglichen. Weitere problematische Beispiele seien öffentlich geförderte Forschungsprojekte zu Drohnenschwärmen, automatisierten Grenztürmen und virtuellen Grenzbeamten mit eingebautem Lügendetektor, der ohne wissenschaftliche Absicherung Vorfragen stellt.

Moin Deutschland!

Die schleppende Digitalisierung führt in Deutschland dazu, dass Künstliche Intelligenz nicht so breit eingesetzt wird wie in anderen Ländern. Aus Sicht von Vieth-Ditlmann wird sich das in Zukunft auf jeden Fall ändern. „Die staatliche Verwaltung weiß, dass sie KI brauchen wird – alleine schon um den Fachkräftemangel im Zuge des demografischen Wandels auszugleichen. Und KI kann hier ja auch sinnvoll eingesetzt werden, so etwa zur Generierung von Textbausteinen oder zur Prüfung von Steuererklärungen. Da wird gerade auch viel erprobt und gemacht. So etwa in Hamburg, wo in Zukunft die KI LLMoin den Mitarbeiter*innen bestimmte Arbeiten abnehmen könnte. Aber auch bei solchen Nutzungen gilt es, klare Regeln zu setzen und für Nachvollziehbarkeit zu sorgen.“

Und auch private Unternehmen nutzen Künstliche Intelligenz bereits flächendeckend – aber eben nicht immer diskriminierungsfrei. „Bewerbungen werden vorsortiert, vermeintliche Frauenjobs auf Social Media nur Frauen vorgeschlagen“, so Vieth-Ditlmann.

 

 

 

Wir sind nicht gegen sinnvolle und arbeitserleichternde Lösungen, die KI ohne Frage liefern kann, aber diese dürfen eben nicht diskriminierend sein.
Kilian Vieth-Ditlmann
AlgorithmWatch

Die Gefahr hierfür sei immer dort besonders hoch, wo es keine ausreichende Transparenz gibt. Daher bewertet er auch die Risiko-Scores der Schufa sehr kritisch. „Es ist vollkommen unklar, wie die Kreditwürdigkeit eines Menschen beurteilt wird. Die Schufa weigert sich mit der Berufung auf das Geschäftsgeheimnis, entsprechende Daten zu veröffentlichen.“ AlgorithmWatch will sich 2025 der Frage zu widmen, wie sich Credit Scores anders gestalten lassen können, fair und offen.

Klare politische Leitplanken

Aus Sicht von Kilian Vieth-Ditlmann gilt es, klare Maßstäbe an Künstliche Intelligenz anzulegen. „Es geht darum, Grund- und Menschenrechte zu wahren, die Demokratie zu schützen und den Datenschutz nicht auszuhebeln. Es ist zentral, dass KI nicht als Instrument genutzt wird, um kleinere Kulturen zu dominieren und dass Menschen von ihr nicht diskriminiert werden – etwa aufgrund ihrer Herkunft, ihrer politischen Einstellungen oder ihrer körperlichen Verfasstheit.“ AlgorithmWatch setzt sich zum Beispiel klar für ein Verbot von biometrischen Identifikationssystemen im öffentlichen Raum ein. „Instrumente wie die Gesichtserkennung können extrem demokratiefeindlich sein. Es beschneidet Grundrechte, wenn Menschen automatisch erfasst werden, zusätzlich führt es zu Abschreckungseffekten und einem Konformitätsdruck in der Gesellschaft.“

Es brauche klare politische Leitplanken, um die Risiken von KI so weit wie möglich zu minimieren. „Der AI Act der EU kann hier nur ein erster Schritt sein. Es wäre utopisch, von Umweltfragen über Wettbewerbsthemen bis hin zu Diskriminierungsrisiken alles in einem einzigen Gesetz zu regeln – das macht man bei anderen Technologien ja auch nicht.“

Kilian Vieth-Ditlmann hat einen Master in Politikwissenschaften und European Affairs. Er war bereits für das Centre for Internet and Human Rights sowie die Stiftung Neue Verantwortung tätig. Hier befasste er sich unter anderem mit digitalen Grundrechten sowie Überwachung und Demokratie – etwa mit Blick auf eine wirksame Kontrolle von Nachrichtendiensten. Bei AlgorithmWatch leitet Vieth-Ditlmann nun das Policy-Team. Er widmet sich vor allem dem staatlichen Einsatz von algorithmischen Entscheidungssystemen sowie Fragen nach der Nachhaltigkeit von künstlicher Intelligenz.

Weitere Informationen

Porträt von Kilian Vieth-Ditlmann im Magazin eco@work

Website von AlgorithmWatch

Artikel auf der Schweizer Website von AlgorithmWatch: Einfach erklärt – Wie und warum Algorithmen diskriminieren

Artikel auf netzpolitik.org: Kindergeldaffäre. Niederlande zahlen Millionenstrafe wegen Datendiskriminierung

Artikel auf der Website der Stadt Hamburg: KI in der Verwaltung. Pilotprojekt „LLMOIN“: Hamburg erprobt eigene Large Language Model Anwendung

Recherche von AlgorithmWatch: Die automatisierte Festung Europa: Menschenrechte haben hier keinen Platz

Porträt Kilian Vieth-Ditlmann © Studio Monbijou, CC BY 4.0

Keine Kommentare

Neuer Kommentar

* Pflichtfelder