Imprimer
Autres documents liés

Proposition de recommandation | Doc. 14628 | 26 septembre 2018

Justice par algorithme – le rôle de l’intelligence artificielle dans les systèmes de police et de justice pénale

Signataires : M. Boriss CILEVIČS, Lettonie, SOC ; Mme Thorhildur Sunna ÆVARSDÓTTIR, Islande, SOC ; Mme Doris BURES, Autriche, SOC ; M. Ervin BUSHATI, Albanie, SOC ; Mme Klotilda BUSHKA, Albanie, SOC ; M. Algirdas BUTKEVIČIUS, Lituanie, SOC ; M. Hendrik DAEMS, Belgique, ADLE ; Mme Maria GUZENINA, Finlande, SOC ; M. Valeri JABLIANOV, Bulgarie, SOC ; Mme Ioanneta KAVVADIA, Grèce, GUE ; M. Tiny KOX, Pays-Bas, GUE ; Mme Kerstin LUNDGREN, Suède, ADLE ; M. Dirk Van der MAELEN, Belgique, SOC ; M. Pieter OMTZIGT, Pays-Bas, PPE/DC ; M. Frithjof SCHMIDT, Allemagne, SOC ; Mme Ingjerd SCHOU, Norvège, PPE/DC ; M. Frank SCHWABE, Allemagne, SOC ; M. Gheorghe-Dinu SOCOTAR, Roumanie, SOC ; Mme Olena SOTNYK, Ukraine, ADLE ; Mme Petra De SUTTER, Belgique, SOC ; M. Sergiy VLASENKO, Ukraine, PPE/DC ; M. Phil WILSON, Royaume-Uni, SOC ; M. Leonid YEMETS, Ukraine, PPE/DC ; M. Emanuelis ZINGERIS, Lituanie, PPE/DC

Cette proposition n'a pas été examinée par l'Assemblée et n'engage que ses signataires.

Le système de justice pénale représente l’un des principaux domaines d’activité de l’État: assurer l’ordre public, prévenir les violations de divers droits fondamentaux et détecter, enquêter, poursuivre et punir les infractions pénales. Elle confère aux autorités d’importants pouvoirs intrusifs ou coercitifs, notamment la surveillance, l’arrestation, la perquisition et la saisie, la détention et le recours à la force physique et même à la force létale.

Les outils de traitement des données sont de plus en plus utilisés dans les systèmes de justice pénale. Les systèmes les plus avancés utilisent des algorithmes prédictifs pour éclairer la prise de décisions dans des domaines comme l’affectation des ressources policières, la mise en liberté sous caution et la détermination de la peine. Ils se sont avérés efficaces à bien des égards et sont souvent appréciés par les autorités qui les utilisent.

Il y a toutefois lieu de s’inquiéter. Ces systèmes sont généralement fournis par des sociétés privées, auquel cas les algorithmes sont des secrets commerciaux – des «boîtes noires» qui ne peuvent pas être soumises à l’examen public. La qualité de la sortie d’un algorithme dépend de la qualité des données d’entrée: si les données d’entrée reflètent par inadvertance, par exemple, un biais racial, il en sera de même pour la sortie, malgré l’apparente neutralité et l’objectivité de l’algorithme. Les décideurs peuvent être réticents à s’écarter des recommandations générées par les algorithmes, au détriment du rôle souvent important du jugement individuel et de la discrétion. Les services de police peuvent perdre le contrôle de leurs propres données, ce qui les rend dépendants des entreprises privées qui les ont acquises, n’ayant guère de choix que de maintenir des relations contractuelles, quel qu’en soit le coût.

L’Assemblée parlementaire devrait examiner le rôle des algorithmes et de l’intelligence artificielle dans les systèmes de justice pénale du point de vue des normes du Conseil de l’Europe sur les droits de l’homme et l’État de droit, en vue de formuler d’éventuelles recommandations aux États membres et au Comité des Ministres pour de nouvelles mesures.