Dans Minority Report (2002), de Steven Spielberg, les précogs peuvent prédire les meurtres. © SDP

« Hart », l’algorithme qui traque les criminels

Le Vif

Dans son film de science-fiction Minority Report, basé sur une nouvelle de Philip K. Dick, Steven Spielberg nous projette dans une société qui a éradiqué le meurtre grâce au « système le plus sophistiqué du monde ».

En 2054, à Washington, trois extralucides, les précogs, captent les signes précurseurs des homicides et en adressent les images au chef de la Précrime. Un jour, le programme va bugger… Ceci n’est plus une fiction.

Le concept est testé à Durham, ville de près de 50000 habitants au nord-est de l’Angleterre. La police locale vient de s’équiper d’une intelligence artificielle baptisée Hart (pour Harm Assessment Risk Tool – outil d’évaluation des risques de dommages) qui décide si, oui ou non, un suspect peut être relâché sans risques. L’algorithme analyse les données récoltées sur un suspect (casier judiciaire, âge, type de méfait, etc.) et le classe ainsi selon trois catégories :  » risque faible « ,  » risque modéré  » ou  » risque élevé  » de passage à l’acte.

Selon un rapport d’étude, le système a été testé, en 2013, sur 14 882 cas de détention. Au cours de cette période, l’exactitude de l’outil était surveillée sans qu’il n’ait aucun impact sur la prise de décision des officiers. Résultat : les prévisions selon lesquelles un suspect était à  » faible risque  » se révélaient exactes à 98 %, alors que les prévisions de  » risque élevé  » étaient correctes dans 88 % des cas. Une différence qui s’explique par la façon dont est conçu le programme, qui préfère surreprésenter les cas de risque élevé.

Ces résultats ont été jugés suffisamment satisfaisants pour que la police de Durham décide de s’emparer de cet outil. Dans un premier temps, l’algorithme sera utilisé de manière aléatoire et uniquement à titre informatif, car des biais ont déjà été constatés. En effet, Hart n’a pas accès aux archives nationales. Par conséquent, une personne déjà condamnée dans une autre juridiction ne sera pas détectée comme ayant été déjà inculpée, ce qui pourrait fausser les prédictions.

L’utilisation d’un assistant judiciaire de ce type n’est cependant pas une première. Depuis quatre ans, des algorithmes de police prédictive ont fait leur apparition aux Etats-Unis dans une soixantaine de villes. Avec des résultats plutôt inquiétants… Selon une enquête publiée par le site ProPublica, l’algorithme présente un large biais raciste envers les Noirs américains, davantage identifiés comme suspects. C’est l’un des problèmes posés par le  » Machine Learning  » : en s’appuyant sur des décisions humaines, la machine risque de reproduire les mêmes travers que ses modèles.

Par Dorian Peck.

Partner Content