Grande-Bretagne : La police planche sur une intelligence artificielle pour anticiper les crimes
Le projet, appelé NDAS (pour National Data Analytics Solution), soulève des questions éthiques.
Prédire les crimes violents ? C’est le but du projet NDAS, qui se base sur des statistiques et une une intelligence artificielle (IA) et sur lequel des services de la police britannique travaillent.
Plus précisément, il s’agira entre autres de cibler des personnes à risque de commettre des crimes ou d’en être victimes.
Assister les services sociaux
Pour y parvenir, 1 téraoctet de données ont déjà été collectées, qui concernent 5 millions de citoyens. 1.400 critères sont listés, et une trentaine sont considérés comme sensibles, comme les fréquentations ou les délits déjà commis, précise CNET France.
La police affirme que le but n’est pas, à la manière du film d’anticipation Minority Report, d’appréhender les individus mais d’assister les services sociaux et le système de santé pour assurer un suivi, psychologique par exemple. Le dispositif, ou du moins un prototype, devrait être fonctionnel dès le mois de mars 2019.
De “sérieux problèmes éthiques”
Iain Donnely, à la tête du projet, a indiqué au New Scientist que se servir de l’IA était devenu une nécessité en raison des diminutions de budget alloué à la police. Et que les lois en matière de confidentialité seraient respectées.
Mais des voix s’élèvent déjà, et des plus sérieuses. Ainsi l’Alan Turing Institute, qui s’occupe de recherches liées à l’IA, indique dans un rapport que le projet NDAS pose de “sérieux problèmes éthiques”.
Quant à Andrew Ferguson, chercheur à l’Université du District de Columbia (Washington D.C.), il craint que le NDAS accroisse les inégalités sociales. En effet selon lui, le taux de crimes est souvent lié aux endroits où les forces de police sont déployées. Concrètement, les policiers patrouillant plus fréquemment dans les quartiers pauvres ou habités par des personnes issues de minorités ethniques, l’IA pourrait être biaisée envers ces classes sociales.