Version Voltron

Lecture: Computer, die über Asyl (mit)entscheiden

Wie das BAMF seine Probleme mit Technik lösen wollte und scheitert

Welchen Dialekt spricht eine Geflüchtete aus Syrien? Was verrät das Handy eines Asylsuchenden aus dem Irak darüber, wo er herkommt? Und ist der Name Wasef eigentlich typisch für Afghanistan? Über diese Fragen entscheiden im Bundesamt für Migration und Flüchtlinge (BAMF) zunehmend Computer. Sie spucken Wahrscheinlichkeiten für Herkunftsländer aus, die entscheidend dafür sind, ob Geflüchtete Asyl bekommen - oder nicht. Kurz: Menschliche Schicksale hängen von Maschinen ab. Diese Maschinen wissen nichts darüber, ob einem Menschen in seiner alten Heimat Verfolgung, Folter und Tod drohen. Mitarbeiter des BAMF verlassen sich auf diese Ergebnisse, auch wenn sie falsch sein können. Recherchen und bisher unveröffentlichte Dokumente zeigen, warum das schiefgehen muss und welche schweren Folgen für Schutzsuchende das haben kann.

Im Jahr 2015 stellte fast eine halbe Million Menschen einen Asylantrag in Deutschland. Das BAMF war überfordert, immer mehr unbearbeitete Anträge sammelten sich an. Der vermeintliche Ausweg lautete Prozessoptimierung. Allein im Jahr 2016 wurden 25 Millionen Euro für Unternehmensberatungen wie McKinsey ausgegeben, die das Amt zu einer Entscheidungsfabrik machen sollten. Dass die Behörde über das Schicksal von Menschen entscheidet, trat in den Hintergrund. Immer mehr Entscheidungen in immer kürzerer Zeit, kaum ausgebildete Entscheider, schlechte Übersetzer, massive Datenschutzprobleme und viele falsche Ablehnungen, die im Nachhinein vor Gericht landeten und im Nachhinein revidiert werden mussten.

Ein Beitrag zur vermeintlichen Optimierung sollten IT-Systeme für ein "Integriertes Identitätsmanagement" leisten, das aus vier Teilen besteht: Ein "Transliterationsassistent" soll Namen in arabischer Schrift einheitlich in lateinische Buchstaben übertragen, um Verwechslungen zu vermeiden und gleichzeitig auswerten, ob der Name im angegebenen Herkunftsland des Geflüchteten vorkommt. Aus einer automatischen Handyauswertung sollen sich Hinweise ergeben, welche Nationalität eine Person hat. Die Technik dafür stammt von einer Firma, die auch für Militär und Geheimdienste arbeitet. Mittels stimmbiometrischer Verfahren sollen die Entscheider Hinweise darauf bekommen, ob ein Antragsteller eher ägyptisches Arabisch spricht oder vielleicht einen levantinischen Dialekt, der auf eine syrische Herkunft hindeutet. Nicht zuletzt sollen biometrische Fotos helfen festzustellen, ob jemand bereits in einer anderen Datenbank registriert wurde. Damit will das BAMF "Vorreiter bei der Erschließung innovativer Technologien" sein.

Doch die neuen IT-Systeme, die kurz vor der Bundestagswahl 2017 vorgestellt wurden, lösen die Probleme des BAMF nicht. Sie schaffen neue und entmenschlichen die Entscheidungen über Schutzsuchende, indem sie die Illusion von Korrektheit und Objektivität erzeugen.

Durch Recherchen und Gespräche mit Betroffenen erhärtete sich der Verdacht, dass das zum Scheitern verurteilt ist. Geflüchtete erzählten davon, dass BAMF-Mitarbeiter die Systeme nicht richtig bedienen konnten. Ihre Asylakten zeigen, dass sie auch die Ergebnisse fahrlässig interpretiert haben. Sie vertrauten kaum aussagefähigen Prozentangaben aus intransparenten Computerprogrammen mehr als den Schilderungen und Dokumenten der Betroffenen. Bisher unveröffentlichte Dokumente zeigen, dass es sich wohl nicht nur um Einzelfälle handelt.

Neben der Gefahr, dass Geflüchtete auf Grundlage der automatisierten Auswertungen abgeschoben werden, hat die Digitalisierungsoffensive im BAMF weitere Auswirkungen: Datenschutzprobleme und massenhafte Datenweiterleitungen an den Verfassungsschutz zum Beispiel. Doch die Behörde hat bereits ein neues Projekt gestartet: die Blockchainisierung des Asylverfahrens.