KI-gestützte Kriminalitätserkennung: Ein fragwürdiger Fortschritt?
In Deutschland wird der Einsatz von KI-gestützten Videoüberwachungssystemen im Sicherheitssektor zunehmend vorangetrieben. Ein Pilotprojekt in Mannheim demonstriert, wie diese Technologie die Arbeit der Polizisten erleichtern und gleichzeitig den Datenschutz verbessern soll. Doch eine aktuelle Studie des Massachusetts Institute of Technology (MIT) wirft ernste Zweifel an der Zuverlässigkeit und Unvoreingenommenheit dieser Systeme auf.
Die Ziele der KI-Überwachung
Die KI-Systeme sollen bestimmte Verhaltensmuster wie Schlagen oder Treten automatisch erkennen und diese Informationen an das Lagezentrum der Polizei weiterleiten. Die Beamten können dann entscheiden, ob ein Eingreifen notwendig ist. Im Normalbetrieb werden die Bilder verpixelt und nur bei einem Verdachtsfall in hoher Auflösung angezeigt. Diese Technologie soll nicht nur die Polizeiarbeit effizienter gestalten, sondern auch neue Möglichkeiten für den Datenschutz bieten.
Schwächen der KI-Systeme
Eine Studie des MIT hat jedoch erhebliche Schwächen dieser KI-Überwachungssysteme aufgedeckt. Bei Tests mit Videos von Autoeinbrüchen zeigten große Sprachmodelle wie GPT-4 inkonsistente Ergebnisse. Während einige Modelle in bestimmten Szenen Alarm schlugen, erkannten andere keine Gefahr. Besonders besorgniserregend ist, dass einige Modelle Videos aus überwiegend weißen Wohngegenden seltener als bedrohlich einstuften als Videos aus überwiegend schwarzen Wohngegenden. Dies deutet auf eine systematische Voreingenommenheit hin, die durch die Demografie einer Nachbarschaft beeinflusst wird.
Normative Inkonsistenz
Die Forscher des MIT sprechen von einer "normativen Inkonsistenz", die es schwierig macht, vorherzusagen, wie sich die Modelle in verschiedenen Kontexten verhalten. Diese Inkonsistenz ist besonders problematisch, da KI-Systeme auch in anderen sensiblen Bereichen wie dem Gesundheitswesen oder der Kreditvergabe eingesetzt werden. Die Wissenschaftler mahnen daher zur Vorsicht.
Mangelnde Transparenz
Ein weiteres Problem ist die fehlende Transparenz der KI-Modelle. Forscher haben keinen Zugriff auf die Trainingsdaten oder die innere Funktionsweise der Modelle. Dies erschwert die Fehlersuche erheblich. Shomik Jain vom MIT betont: "Es gibt die implizite Annahme, dass diese Modelle eine Reihe von Normen und Werten gelernt haben. Unsere Arbeit zeigt, dass dies nicht der Fall ist." Seine Kollegin Dana Calacci von der Pennsylvania State University ergänzt: "Vielleicht lernen die Modelle nur willkürliche Muster oder Rauschen."
Der Weg nach vorne
Die Forscher planen weitere Studien, um die normativen Urteile der KI in heiklen Situationen mit menschlichen Entscheidungen zu vergleichen. Zudem wollen sie ein System entwickeln, mit dem Nutzer KI-Verzerrungen leichter an Unternehmen und Behörden melden können.
Die Ergebnisse der MIT-Studie werfen ein kritisches Licht auf den Einsatz von KI im Sicherheitssektor. Während die Technologie vielversprechende Möglichkeiten bietet, zeigen die aufgedeckten Schwächen, dass wir noch weit davon entfernt sind, uns vollständig auf KI-gestützte Systeme verlassen zu können. Es bleibt zu hoffen, dass zukünftige Entwicklungen diese Probleme adressieren und eine zuverlässigere und unvoreingenommenere KI-Überwachung ermöglichen.
- Themen:
- #Umfragen