No Result
View All Result
  • Login
  • Home
  • Deutschland
  • Welt
    • USA
    • Russland
    • China
  • Pandemie
  • Great Reset
    • GreatVideos
  • Gesundheit
  • Wirtschaft
  • Meinung
PRICING
SUBSCRIBE
  • Home
  • Deutschland
  • Welt
    • USA
    • Russland
    • China
  • Pandemie
  • Great Reset
    • GreatVideos
  • Gesundheit
  • Wirtschaft
  • Meinung
No Result
View All Result
JUST-NOW
No Result
View All Result
Home Deutschland

Wird der "Minority Report" real? US-Polizei testet KI zur Vorhersage von Verbrechen

rtnews by rtnews
10/09/2022
Reading Time: 6 mins read
0 0
0
0
SHARES
0
VIEWS
Share on TelegramShare on TwitterShare on Facebook

Die Polizei von Chicago testet derzeit ein KI-basiertes System, das Verbrechen voraussagen soll, bevor sie geschehen. Aber kein Anlass zur Sorge: Die damit einhergehende Macht wird in den USA definitiv nicht missbraucht werden – das glaubt zumindest der Entwickler des Analysetools Professor Ishanu Chattopadhyay.

Die Dystopie des Jahres 2054 im Film “Minority Report”, gedreht 2002 nach einer Romanvorlage von Philip K. Dick aus dem Jahr 1956, lässt so gut wie keine Verbrechen mehr zu, da die Polizei nun endlich – zumindest vermeintlich – in die Lage versetzt werden soll, Verbrechen zu verhindern, bevor diese überhaupt geschehen. Möglich machen sollen das sogenannte “Precogs”, das sind Troikas, die mit quasi übersinnlichen Kräften in die Zukunft blicken können. Diese mit einer Allmacht auszustattenden Polizisten im Film zeugen zwar von einer dystopischen Gesellschaft, die schon stark an jene Albträume in George Orwells Romanen erinnert. Dennoch ist bereits heute ist ein solches Szenario nicht mehr so fern von der Realität. Durch den Fortschritt im Bereich der Künstlichen Intelligenz (KI) rückt der Traum – oder eher Albtraum – vom Predictive Policing, der präventiven Strafverfolgung immer näher.

Zumeist mit – zumindest angeblich – guten Absichten verfolgen Forscher weltweit das Ziel, auch Algorithmen zur Vorhersage von Verbrechen zu entwickeln. Und langsam scheinen derartige Bemühungen von Erfolg gekrönt zu sein, wie ein Forschungsprojekt der University of Chicago derzeit eindrucksvoll belegt. “Mit unserem Algorithmus kann man sagen, dass es am nächsten Mittwoch an der Kreuzung 37th Street und Southwestern Avenue einen Mord geben wird”, behauptet Ishanu Chattopadhyay, Professor an der University of Chicago und Entwickler des Algorithmus in der britischen Wissenschaftszeitschrift BBC Science Focus. 

Wie funktioniert der neue Algorithmus?

Der Algorithmus unterteilt eine beliebige Stadt in rund jeweils 92 Quadratmeter große Kacheln und verwendet die in der Vergangenheit erfassten polizeilichen Daten zu Gewalt- und Eigentumsdelikten, um künftige Verbrechen eine Woche im Voraus mit einer Genauigkeit von erstaunlichen etwa 90 Prozent vorherzusagen. An für sich nichts Neues, allerdings unterscheidet sich laut Chattopadhyay ihre Methode stark von anderen algorithmischen Vorhersagen dieser Art. Herkömmliche KI-Tools setzten demnach voraus, dass die Kriminalität von Brennpunkten ausgeht und sich von dort aus auf andere Gebiete ausweitet.

Solche Ansätze, so argumentiert der Forscher, ließen jedoch das komplexe soziale Umfeld von Städten außer Acht und würden durch die vom Staat zur Strafverfolgung eingesetzte Überwachung auch negativ beeinflusst. Der von Chattopadhyay entwickelte Algorithmus hingegen analysiert frühere Ereignisprotokolle – also detaillierte Berichte mit Informationen darüber, wann, wo und welche Art von Verbrechen stattgefunden hatte – unter Berücksichtigung vieler anderer Faktoren – und prognostiziere dann die Verbrechenswahrscheinlichkeit. 

“Wir beginnen mit diesem Ereignisprotokoll und digitalisieren dann die Stadt in kleine Bereiche von etwa zwei Blocks mal zwei Blocks – etwa 300 Meter im Durchmesser”, erklärte der Professor. “Und in einer dieser Kacheln sehen wir diese Zeitreihe der verschiedenen Ereignisse, wie Gewaltverbrechen, Eigentumsdelikte, Tötungsdelikte und so weiter. Unser Algorithmus betrachtet diese sich gemeinsam entwickelnden Zeitreihen und findet heraus, wie abhängig sie voneinander sind und wie sie sich gegenseitig beeinflussen – wie sie sich also gegenseitig formen.”

Bisher wurde das Programm in acht verschiedenen US-Städten getestet, darunter in Chicago, Los Angeles sowie Atlanta und Philadelphia. In einer separaten Versuchsreihe untersuchte das Team um Chattopadhyay auch die polizeiliche Reaktion auf Verbrechen, indem es die Anzahl der Verhaftungen nach strafrechtlich relevanten Vorfällen in Stadtvierteln mit unterschiedlichem sozioökonomischem Status analysierte und die dadurch gewonnenen Daten dann miteinander verglich. Sie stellten fest, dass Verbrechen in wohlhabenderen Gegenden zu mehr Verhaftungen führten, während die Zahl der Verhaftungen in benachteiligten Vierteln zurückging. Verbrechen in Armenvierteln führten jedoch nicht zu mehr Verhaftungen, was auf eine Voreingenommenheit bei der polizeilichen Reaktion und Durchsetzung von Gesetzen schließen lässt.

Von solchen interessanten Feststellungen abgesehen, lässt der Einsatz Künstlicher Intelligenz zur Strafverfolgung bei vielen jedoch die Alarmglocken läuten.

Gefahren der KI 

Denn sobald entsprechende Technologien vorhanden sind, werden sie – und auch das hat die Geschichte der menschlichen Zivilisation leider allzu oft gezeigt – oft auch missbraucht. Auch besteht die Fähigkeit von Algorithmen, Verbrechen vorherzusagen, lediglich darin, per definitionem unsichere Wahrscheinlichkeiten zu errechnen, die darüber hinaus zudem von vielen weiteren, unbekannten oder nicht vorhersehbaren Faktoren abhängig sind, wie auch Chattopadhyay nach der Veröffentlichung seiner Studie gegenüber US-Medien einräumte:

“Die Vergangenheit sagt nichts über die Zukunft aus. Die Frage ist: In welchem Maße beeinflusst die Vergangenheit tatsächlich die Zukunft? Und inwieweit sind die Ereignisse spontan oder wirklich zufällig? … Unsere Fähigkeit, Vorhersagen zu treffen, ist dadurch begrenzt.”

Bereits seit Langem nutzt die Polizei jedes verfügbare Instrument, um Verbrechen aufzuklären oder gar vorherzusagen. Bevor es technologische Fortschritte gab, setzten sich Polizisten in Konferenzräumen zusammen und markierten mit Stecknadeln solche Orte, an denen zuvor Verbrechen verübt wurden. Dadurch erhofften sich die Ermittler, auffällige Häufungen ausfindig machen zu können, die ihnen Hinweise darauf geben würden, wo sie einen Täter als nächstes suchen sollten, um ihn dingfest zu machen.

In den letzten 15 Jahren begannen die größten Polizeidienststellen der USA, darunter jene in New York, Los Angeles und Chicago, über Möglichkeiten nachzudenken, die Künstliche Intelligenz einzusetzen, um Verbrechen nicht nur analysieren, sondern auch vorhersagen zu können. Bei ihrer Suche wandten sie sich an Unternehmen zur professionellen Datenanalyse wie PredPol und Palantir, die unter anderem auch Software zur präventiven Strafverfolgung entwickeln. Bei sämtlichen diesen “Predictive Policing Tools” werden Daten – wie etwa Verbrechensberichte, Verhaftungsprotokolle und auch Bilder von Nummernschildern – in einen Algorithmus eingespeist, der darauf programmiert ist, nach Mustern zu suchen. Anhand der gefundenen Muster lässt sich dann ungefähr vorhersagen, wo und wann eine bestimmte Art von Ereignissen, also hier Verbrechen, in Zukunft auftreten könnte, was allerdings zweifellos durchaus auch zu voreiligen Verhaftungen oder noch schlimmeren Maßnahmen der “Prävention” führen kann. 

So stützten sich die polizeilichen Bemühungen zur Verbrechensbekämpfung in der Regel auf Berichte über Straftaten, die implizit eine komplexe Beziehung zwischen Verbrechen, Polizeiarbeit und Gesellschaft widerspiegeln. Infolgedessen haben die Vorhersage von Verbrechen und die vorausschauende Polizeiarbeit eine Kontroverse ausgelöst, da die neuesten, auf Künstlicher Intelligenz basierenden Algorithmen nur begrenzte Einblicke in das soziale System der Kriminalität haben und die Beamten zudem auch zu falschen Rückschlüssen verleiten können. 

Wenn ein Algorithmus beispielsweise vorhersagt, dass ein Polizeibeamter an einem bestimmten Ort erschossen wird, und daraufhin mehr bewaffnete Polizisten in dieses Gebiet entsandt werden, könnte diese Vorhersage somit auch zu einer “sich selbst erfüllenden Prophezeiung” werden. Und obwohl Chattopadhyays Software in rund 90 Prozent der Fälle richtig liegen mag, bedeutet das noch lange nicht, dass damit auch mehr Verbrechen verhindert werden können. Es bedeutet lediglich, dass an den von der Software als Schauplatz künftiger Verbrechen vorhergesagten Orten, präventiv ein paar mehr Polizisten eingesetzt werden können, die in der Folge allerdings vermutlich jeden, der in diesen Gebieten verkehrt, als potenziell verdächtig betrachten könnten.

Am Ende des Films “Minority Report” zeigt das System Schwachstellen, die Vorhersagen manipulierbar machen und sowohl zu falschen Verdächtigungen als auch falschen Vorhersagen führen.

Neben den erhofften Vorzügen besteht bei der Verwendung von derartigen “Predictive Policing Tools” die nicht zu unterschätzende Gefahr, dass autoritäre Systeme sie dazu nutzen können, um störende Andersdenkende oder gar Oppositionelle “loszuwerden”. Chattopadhyay schlussfolgert:

“Wir sind uns der Gefahr bewusst, dass leistungsstarke Prognoseinstrumente übereifrigen Staaten im Namen des Schutzes der Zivilbevölkerung in die Hände spielen. Meine Teamkollegen und ich haben viel darüber gesprochen, dass wir nicht wollen, dass es als rein prädiktives politisches Werkzeug eingesetzt wird. Wir wollen, dass es hauptsächlich zur Optimierung der Politik eingesetzt wird. Wir müssen dies ermöglichen, denn es reicht nicht aus, ein Papier aufzustellen und den Algorithmus zu haben. Wir wollen, dass der Bürgermeister oder die Administratoren das erzeugte Modell nutzen, um Simulationen durchzuführen und die Politik zu informieren.”

Während viele andere Lebensbereiche stark von KI-Prognosen profitieren können, sollte die Polizei angesichts der nicht zu leugnenden Fehleranfälligkeit besser beraten sein, weiterhin auf menschliche Fähigkeiten statt auf Algorithmen zu setzten. Sicher klingt das pessimistisch, aber in Anbetracht des systematischen Missbrauchs ähnlicher experimenteller Software zur Unterstützung der Polizei – ganz zu schweigen von den systematischen Übergriffen auf gefährdete Bevölkerungsgruppen, die es in der Arbeit der US-Polizei ohnehin schon lange, ohne jegliche KI gibt – scheint dieser Pessimismus durchaus berechtigt zu sein.

Mehr zum Thema – Wenn die EU-Chatkontrolle aus besorgten Eltern Pädophile macht



Source link

Tags: derquotMinorityRealReportquottestetUSPolizeiVerbrechenvonVorhersagewirdzur
rtnews

rtnews

Related Posts

Vater von Elon Musk nimmt an Zukunftsforum in Moskau teil
Deutschland

Vater von Elon Musk nimmt an Zukunftsforum in Moskau teil

08/06/2025
2
Trump absetzen? J.D. Vance weist Musks Äußerungen zurück
Deutschland

Trump absetzen? J.D. Vance weist Musks Äußerungen zurück

08/06/2025
2
"Was ist daran schlecht" ‒ Israels Premier Netanjahu bewaffnet kriminelle Clans in Gaza
Deutschland

"Was ist daran schlecht" ‒ Israels Premier Netanjahu bewaffnet kriminelle Clans in Gaza

08/06/2025
2
Bericht: Russlands nächster Militärschlag könnte gegen Kiews Regierungsgebäude gerichtet sein
Deutschland

Bericht: Russlands nächster Militärschlag könnte gegen Kiews Regierungsgebäude gerichtet sein

08/06/2025
6
Nach Druck der USA: Paris und Berlin widerrufen Anerkennung eines palästinensischen Staates
Deutschland

Nach Druck der USA: Paris und Berlin widerrufen Anerkennung eines palästinensischen Staates

08/06/2025
1
Russland gibt Namen der zur Übergabe bereiten gefallenen ukrainischen Soldaten bekannt
Deutschland

Russland gibt Namen der zur Übergabe bereiten gefallenen ukrainischen Soldaten bekannt

08/06/2025
5
Next Post
Die Geschichte eines ökonomischen Verrats (2) – Selbstzerstörung ohne Nutzen

Die Geschichte eines ökonomischen Verrats (2) – Selbstzerstörung ohne Nutzen

Totgeschlagen: Wie die Russen ohne Hollywood überleben

Totgeschlagen: Wie die Russen ohne Hollywood überleben

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

I agree to the Terms & Conditions and Privacy Policy.

Recent Posts

  • Vater von Elon Musk nimmt an Zukunftsforum in Moskau teil
  • Trump absetzen? J.D. Vance weist Musks Äußerungen zurück
  • "Was ist daran schlecht" ‒ Israels Premier Netanjahu bewaffnet kriminelle Clans in Gaza
  • Bericht: Russlands nächster Militärschlag könnte gegen Kiews Regierungsgebäude gerichtet sein
  • Nach Druck der USA: Paris und Berlin widerrufen Anerkennung eines palästinensischen Staates

Recent Comments

  1. picrin saeure zu Die Axt im Kopf erspart Strack-Zimmermann
  2. picrin saeure zu Bayern: CSU-Gesundheitsministerin will Krankenhäuser "auf Kriegsfall vorbereiten"
  3. picrin saeure zu "Bereit sein, für Deutschland zu sterben" – Konservative Parteien fordern Rückkehr zur Wehrpflicht
  4. picrin saeure zu Letzte INSA-Umfrage vor der Wahl: Union und Grüne verlieren
  5. picrin saeure zu Freie Arztwahl nur noch gegen Aufpreis? Vorstoß der Adenauer-Stiftung polarisiert
just-now.NEWS Deutschland

© 2022 Now News - Global News Network & Coronapedia

Navigate Site

  • Home
  • Datenschutzerklärung (EU)
  • Haftungsausschluss
  • Cookie-Richtlinie (EU)
  • Impressum
  • Subscription
  • Kasse
  • Warenkorb
  • Mein Konto

Folge Uns Auf

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Cookie-Zustimmung verwalten
Um dir ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn du diesen Technologien zustimmst, können wir Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn du deine Zustimmung nicht erteilst oder zurückziehst, können bestimmte Merkmale und Funktionen beeinträchtigt werden.
Funktional Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Optionen verwalten Dienste verwalten Anbieter verwalten Lese mehr über diese Zwecke
Einstellungen ansehen
{title} {title} {title}
No Result
View All Result
  • Home
  • Abonnement
  • Kategorie
    • Pandemie
    • Deutschland
    • Russland
    • USA
    • China
    • Welt
    • Wirtschaft
    • Gesundheit
    • Great Reset
    • Meinung
  • Mein Konto
  • Impress
    • Impressum
    • Cookie-Richtlinie (EU)
    • Haftungsausschluss
    • Datenschutzerklärung (EU)

© 2022 Now News - Global News Network & Coronapedia

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.
Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?