Verbesserungen in der KI-Technologie haben den Strafverfolgungsbehörden eine ganze Reihe neuer Werkzeuge an die Hand gegeben, mit denen sie verschiedene Formen moderner Sklaverei identifizieren und stoppen können. Laut einem kürzlich erschienenen Artikel in AußenpolitikKI ist ein zweischneidiges Schwert. Sie hat geholfen, Menschenhandel aufzudecken, der früher unentdeckt geblieben wäre. Aber sie hat auch unschuldige Menschen in den Skandal hineingezogen, was sich negativ auf ihr Leben auswirkt.
Normal oder nicht normal? Die KI sagt es Ihnen
ThetaRay ist ein KI-gestütztes Unternehmen zur Erkennung von Finanzkriminalität, das KI zur Erkennung von Mustern nutzt. Wenn etwas außerhalb dieser Muster liegt, kann dies auf ein Verbrechen hinweisen. Kürzlich verwendete eine Bank ThetaRay, um die regelmäßigen Zahlungen von Kunden zu analysieren. Die KI markierte ungewöhnliche Aktivitäten auf dem Konto eines bestimmten Bankkunden. Diese Markierung deckte letztendlich ein Menschenhandelsnetzwerk auf.
ThetaRay-CEO Peter Reynolds sagte:
„Wenn die KI versteht, was normal ist, kann sie Ihnen sehr schnell sagen, was nicht normal ist. Und das, was nicht normal aussieht, ist möglicherweise ein Verbrechen.“
Banken überwachen und analysieren jedoch Millionen von Transaktionen. Und obwohl einige Anomalien auf Kriminalität hinweisen können, sind nicht alle Abweichungen kriminell. Websites, auf denen Autos, Computer und mehr verkauft werden, können auch echte Dienstleistungen für Erwachsene anbieten, die nichts mit moderner Sklaverei oder Ausbeutung zu tun haben. Deshalb schlagen einige, obwohl sie das Potenzial erkennen, Alarm. Und das Sammeln von Daten über marginalisierte Bevölkerungsgruppen und die Automatisierung von Entscheidungen kann zu unbeabsichtigtem Schaden führen, sagen Menschenrechtsorganisationen und Überlebende.
Eine Kraft für Gut UND Böse
In den letzten Jahren wurde die KI-Technologie in der einen oder anderen Form in nahezu jede Branche eingeführt. Der Sektor zur Bekämpfung des Menschenhandels bildet hier keine Ausnahme. Tatsächlich wurden Technologieunternehmen im letzten TIP-Bericht aktiv dazu ermutigt, „Daten- und Algorithmen-Tools“ zu verwenden, um Muster zu erkennen und verdächtige Aktivitäten zu identifizieren. Unternehmen, gemeinnützige Organisationen und Strafverfolgungsbehörden können heute mehr Risiken effizienter kennzeichnen. Doch Experten warnen: Wir müssen vorsichtig vorgehen. Andernfalls besteht die Gefahr, bereits gefährdete Bevölkerungsgruppen zu schädigen.
Anjali Mazumder leitet das Programm „KI und Gerechtigkeit und Menschenrechte“ am Alan Turing Institute, dem britischen nationalen Institut für Datenwissenschaft und KI sagte:
„Wie bei vielen KI-bezogenen Technologien gibt es auch bei ihrer Verwendung Spannungen. Man muss erkennen, dass es zwar Tools gibt, die bei der Erkennung von Schäden hilfreich sein könnten, aber sie können auch Schaden anrichten.“
KI-Technologien haben riesige Datenmengen durchforstet und Muster, Netzwerke und Hotspots entdeckt. Und es lässt sich nicht leugnen, dass es positive Ergebnisse gab. Ein von IBM entwickeltes KI-Tool half dabei, vietnamesische Staatsbürger aufzudecken, die in kambodschanische Betrugszentren verschleppt wurden, um dort zu arbeiten. Dasselbe Tool deckte auch Netzwerke von Fake-Jobagenturen in Uganda auf.
Wichtig ist der menschliche Faktor
Im Gegensatz zu den gerade genannten Erfolgen konzentrieren sich die meisten aktuellen Anwendungen von KI im Bereich des Menschenhandels auf die Bekämpfung des Sexhandels. Das Problem, sagen Experten, ist, dass viele der von KI analysierten Anzeigen auch Anzeigen von echten Sexarbeiterinnen enthalten. Die derzeit verwendeten Tools haben Schwierigkeiten, zuverlässig zwischen den beiden zu unterscheiden. Das kann dazu führen, dass unschuldige Menschen fälschlicherweise ins Visier der Strafverfolgungsbehörden geraten.
Olivia Snow, Sexarbeiterin und wissenschaftliche Mitarbeiterin am UCLA Center for Critical Internet Inquiry angegeben:
„Es wäre eine Sache, wenn sie KI nutzen würden, um Kunden oder so etwas zu verfolgen. Aber das tun sie nie. Es sind nur die Arbeiter. Die Leute, die KI herstellen, scheren sich nicht wirklich um Menschenrechtsfragen. Ihnen geht es darum, Geld zu verdienen, und ihnen geht es darum, Daten zu bekommen.“
Ein Bericht von Forbes ergab, dass ein KI-Tool Anzeigen von echten Sexarbeiterinnen sowie Online-Sexanzeigen von ausgebeuteten Kindern sammelte. Mithilfe dieser Informationen überwachte die Polizei die Frauen dann aus der Ferne, griff jedoch nicht ein, als sie in Gefahr gerieten. Darüber hinaus wurden viele Sexarbeiterinnen wegen fälschlicher Kennzeichnung von ihren Bankkonten ausgeschlossen oder ihr Zugang zu ihnen wurde gesperrt. Ein Sprecher der Bank meinte, dass noch immer der menschliche Faktor vorhanden sein müsse, um die Daten zu analysieren, bevor Maßnahmen ergriffen werden.
Freedom United steht an der Seite von Mazumder und anderen Experten, die der Ansicht sind, dass KI ein Segen für den Sektor sein kann. Allerdings müssen unbedingt Mechanismen geschaffen werden, die sicherstellen, dass marginalisierte oder gefährdete Gruppen nicht ins Visier genommen, weiter ausgebeutet oder in sonstiger Weise geschädigt werden.
Freedom United ist daran interessiert, von unserer Community zu hören und begrüßt relevante, fundierte Kommentare, Ratschläge und Einblicke, die die Diskussion rund um unsere Kampagnen und Interessenvertretung voranbringen. Wir wertschätzen Inklusivität und Umwelt und Kunden innerhalb unserer Gemeinde. Um genehmigt zu werden, sollten Ihre Kommentare höflich sein.
ok, was kann man also jetzt dagegen tun?
KI ist die jüngste in einer Reihe von technischen Lösungen, die viel versprechen und wenig halten. Zuerst war es „Big Data“, dann „Blockchain“, dann eine andere schnelle Lösung, um „die Welt von der modernen Sklaverei zu befreien“. Obwohl jede davon eine Anwendung haben kann, hat sich auf Makroebene herausgestellt, dass sie nur Schaum vor dem Mund ist.