La Chine développe un procureur basé sur l’IA capable de juger la culpabilité des gens avec une précision de 97 %

La Chine développe un procureur basé sur l’IA capable de juger la culpabilité des gens avec une précision de 97 %

Rate this post

La Chine a développé une intelligence artificielle qui pourrait identifier les crimes et porter plainte contre les criminels avec une précision de plus de 97 %.

L’IA a été développée et testée par le Parquet populaire de Shanghai Pudong et a été formée pour identifier les huit crimes les plus courants de Shanghai.

Il a été développé par une équipe dirigée par le professeur Shi Yong, directeur du laboratoire de gestion des mégadonnées et des connaissances de l’Académie chinoise des sciences.

Comme le rapporte le Post du matin de la Chine du Sud, l’IA ne peut pas « participer au processus décisionnel consistant à déposer des accusations et à suggérer des peines », mais est déjà utilisée pour aider à évaluer les preuves et à déterminer si les criminels sont dangereux pour le public.

Publicité

nobeastsofierce Science / Alamy Banque D'Images
nobeastsofierce Science / Alamy Banque D’Images

Il dépose des accusations en utilisant une description d’une affaire criminelle présumée et les chercheurs pensent qu’il peut « remplacer les procureurs dans le processus décisionnel dans une certaine mesure ».

L’outil a été construit à l’aide d’une IA existante appelée System 206 et, sans être en mesure d’identifier et de supprimer des informations non pertinentes dans une affaire, ou de traiter le langage humain, il ne sera pas en mesure de prendre des décisions en matière de condamnation ou de déposer des accusations sans intervention humaine.

Publicité

Le système 206 est utilisé dans le traitement des dossiers depuis 2016, mais il n’a pas été conçu pour faire partie du processus décisionnel.

Les apprentissages appliqués à la nouvelle IA incluent la capacité de trier les données et de déterminer quels points de données sont pertinents pour un cas, ce qui lui permet de prendre des décisions là où le système 206 ne le pouvait pas.

eye35.pix / Alamy Banque D'Images
eye35.pix / Alamy Banque D’Images

S’adressant au Post, un procureur anonyme a déclaré que la préoccupation était que même si une précision de 97% est élevée, il y a toujours un changement d’erreurs.

Publicité

« Qui en assumera la responsabilité quand cela arrivera ? Le procureur, la machine ou le concepteur de l’algorithme ? demanda l’avocat.

Les développeurs ont déclaré que l’IA sera utilisée pour réduire la charge de travail des procureurs, mais qu’elle n’a pas encore été largement déployée.

Il peut être utilisé sur un ordinateur de bureau et utilise des milliards de points de données stockés sur le système dans son analyse.

Il a été développé à partir de milliers de cas juridiques du monde entier.

Publicité

Le procureur qui s’est entretenu avec le Post a déclaré que la préoccupation était d’essayer de remplacer la prise de décision humaine par une machine.

Rawf8 / Alamy Banque D'Images
Rawf8 / Alamy Banque D’Images

« L’IA peut aider à détecter une erreur, mais elle ne peut pas remplacer les humains dans la prise de décision », ont-ils déclaré.

Publicité

Il a déjà été prouvé qu’un logiciel d’évaluation des risques d’IA utilisé dans le Wisconsin a développé un biais contre les délinquants en raison de leur race.

Pour l’instant, il n’y a pas de calendrier pour le déploiement ultérieur de l’IA ni de plans clairs pour une formation supplémentaire au-delà de ses huit capacités de crime actuelles.