„Intransparenz ist gefährlich“

Risiken von KI berücksichtigen
© freepik.com
Künstliche Intelligenz aus menschenrechtlicher Perspektive
KI hat viele positive Seiten und bereichert unser Leben. Gleichzeitig kann sie aber auch Menschen diskriminieren, Grundrechte einschränken und unsere Demokratie bedrohen. Wo dies bereits geschieht und wie es sich verhindern lässt, darüber haben wir mit Kilian Vieth-Ditlmann, Leiter des Policy-Teams bei AlgorithmWatch, gesprochen.
Die Toeslagenaffaire
Künstliche Intelligenz lernt von den Daten, mit denen sie gefüttert wird. Sind diese diskriminierend, ist sie es auch. Einen besonders schweren und folgenreichen Fall einer solchen Diskriminierung berichtet Vieth-Ditlmann aus den Niederlanden. Bei der so genannten Toeslagenaffaire (dt. Kindergeldaffäre) hatten die Steuerbehörden eine KI eingesetzt, um Betrugsfällen beim Kindergeldzuschlag auf die Spur zu kommen. „Hierfür erstellte eine KI Risikoprofile; alleine die nicht-niederländische Nationalität der Antragsteller*innen war dabei ein Risikofaktor. Zehntausende Familien, ein Großteil von ihnen mit geringem Einkommen und migrantischem Hintergrund, wurden auf dieser Grundlage zu Unrecht bestraft. Sie mussten Kindergeldzuschläge zurückerstatten, was in unzähligen Fällen den finanziellen Bankrott und die Unterbringung von Kindern in Pflegefamilien zur Folge hatte.“ Die Offenlegung dieses Skandals führte 2021 zum Rücktritt des gesamten niederländischen Kabinetts.
KI im Asylprozess
Staatliche Stellen nutzen Künstliche Intelligenz für viele Prozesse, etwa an den EU-Außengrenzen. So setzt das Bundesamt für Migration und Flüchtlinge (BAMF) schon seit 2020 einen so genannten Dialektidentifizierungsassistenten ein. „Dieses System soll erkennen, ob Asylbewerber*innen einen Dialekt sprechen, der zu ihren Angaben passt. Ein hochproblematisches Vorgehen, denn der Dialekt ist natürlich keinerlei Beweis dafür, wo ein Mensch wohnt.“ Künftig werden auch die biometrischen Gesichtsdaten von Asylbewerber*innen, die keinen Pass vorweisen können, vom BAMF mit Hilfe von KI mit sämtlichen öffentlichen Internetinhalten abgeglichen. Weitere problematische Beispiele seien öffentlich geförderte Forschungsprojekte zu Drohnenschwärmen, automatisierten Grenztürmen und virtuellen Grenzbeamten mit eingebautem Lügendetektor, der ohne wissenschaftliche Absicherung Vorfragen stellt.
Moin Deutschland!
Die schleppende Digitalisierung führt in Deutschland dazu, dass Künstliche Intelligenz nicht so breit eingesetzt wird wie in anderen Ländern. Aus Sicht von Vieth-Ditlmann wird sich das in Zukunft auf jeden Fall ändern. „Die staatliche Verwaltung weiß, dass sie KI brauchen wird – alleine schon um den Fachkräftemangel im Zuge des demografischen Wandels auszugleichen. Und KI kann hier ja auch sinnvoll eingesetzt werden, so etwa zur Generierung von Textbausteinen oder zur Prüfung von Steuererklärungen. Da wird gerade auch viel erprobt und gemacht. So etwa in Hamburg, wo in Zukunft die KI LLMoin den Mitarbeiter*innen bestimmte Arbeiten abnehmen könnte. Aber auch bei solchen Nutzungen gilt es, klare Regeln zu setzen und für Nachvollziehbarkeit zu sorgen.“
Und auch private Unternehmen nutzen Künstliche Intelligenz bereits flächendeckend – aber eben nicht immer diskriminierungsfrei. „Bewerbungen werden vorsortiert, vermeintliche Frauenjobs auf Social Media nur Frauen vorgeschlagen“, so Vieth-Ditlmann.

Wir sind nicht gegen sinnvolle und arbeitserleichternde Lösungen, die KI ohne Frage liefern kann, aber diese dürfen eben nicht diskriminierend sein.
Die Gefahr hierfür sei immer dort besonders hoch, wo es keine ausreichende Transparenz gibt. Daher bewertet er auch die Risiko-Scores der Schufa sehr kritisch. „Es ist vollkommen unklar, wie die Kreditwürdigkeit eines Menschen beurteilt wird. Die Schufa weigert sich mit der Berufung auf das Geschäftsgeheimnis, entsprechende Daten zu veröffentlichen.“ AlgorithmWatch will sich 2025 der Frage zu widmen, wie sich Credit Scores anders gestalten lassen können, fair und offen.
Klare politische Leitplanken
Aus Sicht von Kilian Vieth-Ditlmann gilt es, klare Maßstäbe an Künstliche Intelligenz anzulegen. „Es geht darum, Grund- und Menschenrechte zu wahren, die Demokratie zu schützen und den Datenschutz nicht auszuhebeln. Es ist zentral, dass KI nicht als Instrument genutzt wird, um kleinere Kulturen zu dominieren und dass Menschen von ihr nicht diskriminiert werden – etwa aufgrund ihrer Herkunft, ihrer politischen Einstellungen oder ihrer körperlichen Verfasstheit.“ AlgorithmWatch setzt sich zum Beispiel klar für ein Verbot von biometrischen Identifikationssystemen im öffentlichen Raum ein. „Instrumente wie die Gesichtserkennung können extrem demokratiefeindlich sein. Es beschneidet Grundrechte, wenn Menschen automatisch erfasst werden, zusätzlich führt es zu Abschreckungseffekten und einem Konformitätsdruck in der Gesellschaft.“
Es brauche klare politische Leitplanken, um die Risiken von KI so weit wie möglich zu minimieren. „Der AI Act der EU kann hier nur ein erster Schritt sein. Es wäre utopisch, von Umweltfragen über Wettbewerbsthemen bis hin zu Diskriminierungsrisiken alles in einem einzigen Gesetz zu regeln – das macht man bei anderen Technologien ja auch nicht.“
Kilian Vieth-Ditlmann hat einen Master in Politikwissenschaften und European Affairs. Er war bereits für das Centre for Internet and Human Rights sowie die Stiftung Neue Verantwortung tätig. Hier befasste er sich unter anderem mit digitalen Grundrechten sowie Überwachung und Demokratie – etwa mit Blick auf eine wirksame Kontrolle von Nachrichtendiensten. Bei AlgorithmWatch leitet Vieth-Ditlmann nun das Policy-Team. Er widmet sich vor allem dem staatlichen Einsatz von algorithmischen Entscheidungssystemen sowie Fragen nach der Nachhaltigkeit von künstlicher Intelligenz.
Weitere Informationen
Porträt von Kilian Vieth-Ditlmann im Magazin eco@work
Porträt Kilian Vieth-Ditlmann © Studio Monbijou, CC BY 4.0