digitale Themen, leicht verständlich.

KI und Deep Learning machen's möglich

Forscher tüfteln an Drohne, die Straftaten aus der Luft erkennt

Geschätzte Lesezeit: ca. 2 Minuten

Foto von Dennie Beneke

von Dennie Beneke (@debeneke)-

Forscher aus Cambridge erproben gerade eine KI, die mithilfe einer Drohne automatisierte Überwachung von öffentlichen Räumen und Massenveranstaltungen ermöglichen soll. Ziel ist es, Gewaltakte und Straftaten zu erkennen, weshalb die KI gerade fleißig Angriffsposen büffelt.

Dass wir mit Drohnen Luftaufnahmen von Gebäuden schießen oder wildlebende Tiere in der Natur filmen können, ist bereits seit einigen Jahren übliche Praxis und hat der Gesellschaft neue Perspektiven eröffnet. Fast täglich finden sich neue, interessante oder schockierende Aufnahmen der fliegenden Kameras im Netz, die quasi in jeder Situation zum Einsatz kommen. Doch den Überwachungsaspekt, den Sicherheitsbehörden und Forscher im Auge haben, finden wohl die Wenigsten wirklich prickelnd.

Schon zehn Personen reichen aus, um die Trefferwahrscheinlichkeit auf 74 Prozent zu verringern.

Da dies ja noch nie jemanden aufgehalten hat zu forschen, hat sich ein Wissenschafts-Team der 'University of Cambridge' unter der Leitung von Amarjot Singh mit der Drohnentechnik im Zusammenhang mit automatisierter Überwachung befasst – aus der Überzeugung heraus, Gewaltakte und Straftaten in öffentlichen Räumen und bei Großveranstaltungen zu mindern.

Überwachungsdrohne mit lernender KI soll Körperbewegungen analysieren

Für ihre Forschung nutzen die Wissenschaftler eine handelsübliche Drohne, die ihr Videomaterial über eine mobile Internetverbindung weiterleitet. Darüber hinaus setzt das System auf eine mitlernende KI, die mithilfe von Deep-Learning auf bislang fünf unterschiedliche Körperbewegungen trainiert wurde: Schläge, Tritte, Schuss- Stech- und Würgebewegungen. Der KI wird also beigebracht, was gewalttätige Gesten sind, um diese in Menschenmassen zu erkennen. Was darauf folgen soll, ist indes noch nicht klar. Beispielsweise könnten die Täter anhand von Gesichtserkennung identifiziert werden oder die Drohe verrät den Standort der Aktion, damit Behörden schnell einschreiten können.

Im Gespräch mit 'The Verge' äußerte sich Singh bislang zurückhaltend über den Stand der Forschung. Grund seien erste Tests, die bislang nur unter nachgestellten Situationen durchgeführt wurden und wenig bis nichts mit dem positiv chaotischen Verhalten von Menschen zu tun haben, wie es beispielsweise auf Festivals der Fall ist. Obwohl die Forscher angaben, dass das System bei der Identifizierung gewalttätiger Gesten eine 94-prozentige Treffergenauigkeit aufwies, sank diese Zahl deutlich, je mehr Personen ins Bild traten. Schon zehn Personen reichen demnach aus, um die Trefferwahrscheinlichkeit auf 74 Prozent zu verringern.

Bereits 10 Personen stellen die KI vor Schwierigkeiten

Für erste Tests unter realen Bedingungen sicherten sich die Wissenschaftler deshalb die Erlaubnis, die Kameradrohne auf zwei indischen Festivals zu erproben. Dort muss sich erst zeigen, ob die KI verdächtige Verhaltensweisen von den positiv aufgeladenen Handlungen gut gelaunter Festivalbesucher unterscheiden kann.

Ein weiterer Aspekt, der vor allem Ethiker mit dem Kopf schütteln lässt, ist die Frage nach Kontrollmechanismen, die einen Machtmissbrauch verhindern. Gesichtserkennung steht deutlich in der Kritik, gegen das Recht auf Privatsphäre zu verstoßen. Darüber hinaus stellt sich die ethische Frage, ob Menschen noch unbefangen und normal agieren, wenn sie stets befürchten müssen, aufgenommen zu werden. Für Kritiker verschwimmen hier die Linien zwischen dem Vermeiden von Unrecht und der Anwendung selbiger unter dem Deckmantel, damit etwas Gutes zu bezwecken.

Quelle: theverge.com

Hier erfährst du mehr über: SicherheitKünstliche Intelligenz und Datenschutz

Sag uns deine Meinung!