IA

L'IA peut-elle être plus efficace que les personnes dans le système judiciaire?

L'IA peut-elle être plus efficace que les personnes dans le système judiciaire?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

L'intelligence artificielle est appelée à remplacer de nombreux emplois humains à l'avenir, mais les avocats et les juges devraient-ils en faire partie? Nous explorons ici les domaines où l'IA est déjà utilisée dans les systèmes judiciaires du monde entier et discutons si elle devrait jouer un rôle plus large.

En particulier, une IA pourrait-elle ou devrait-elle jamais être développée pour porter un jugement sur un être humain vivant et respirant?

CONNEXES: LA CHINE A DÉVOILÉ UN JUGE AI QUI AIDERA LES PROCÉDURES JUDICIAIRES

Comment l'IA est-elle actuellement utilisée dans les systèmes judiciaires?

Croyez-le ou non, l'IA et d'autres formes d'algorithmes avancés sont déjà largement utilisées dans de nombreux systèmes judiciaires du monde entier. Dans un certain nombre d'États des États-Unis, par exemple, des algorithmes prédictifs sont actuellement utilisés pour aider à réduire la charge sur le système judiciaire.

"Sous une immense pression pour réduire le nombre de prisons sans risquer une augmentation de la criminalité, les salles d'audience à travers les États-Unis se sont tournées vers des outils automatisés pour tenter de faire passer les accusés dans le système juridique de manière aussi efficace et sûre que possible." - Revue technologique.

Pour y parvenir, les services de police américains utilisent des algorithmes prédictifs pour développer des stratégies permettant de déployer leurs forces le plus efficacement possible. En utilisant une analyse des statistiques historiques de la criminalité et des technologies telles que la reconnaissance faciale, on espère que ce niveau d'automatisation contribuera à améliorer l'efficacité de leurs ressources humaines.

Le service judiciaire américain utilise également d'autres formes d'algorithmes, appelés algorithmes d'évaluation des risques, pour aider également à traiter les affaires post-arrestation.

«Les outils d’évaluation des risques sont conçus pour faire une seule chose: saisir les détails du profil d’un accusé et cracher un score de récidive - un chiffre unique estimant la probabilité qu’il récidive.

Un juge prend ensuite en compte une myriade de décisions qui peuvent déterminer le type de services de réadaptation que les accusés devraient recevoir, s'ils devraient être détenus en prison avant le procès et la sévérité de leur peine. Un faible score ouvre la voie à un destin plus aimable. Un score élevé fait exactement le contraire. »- Technology Review.

En Chine, les juges alimentés par l'IA deviennent également une réalité. Proclamée «la première du genre au monde», la ville de Pékin a mis en place un centre de services contentieux basé sur Internet qui comprend un juge IA pour certains types de dossiers.

Le juge, appelé Xinhua, est une femme artificielle avec un corps, des expressions faciales, une voix et des actions basées sur une juge humaine vivante et respirante du service judiciaire de Pékin.

Ce juge virtuel est principalement utilisé pour les affaires répétitives de base, a déclaré la Cour Internet de Bejing dans un communiqué. «Elle» s'occupe principalement de la réception des litiges et des conseils en ligne plutôt que du jugement final.

L'espoir est que l'utilisation du juge alimenté par l'IA et du tribunal en ligne rendra l'accès au processus judiciaire plus efficace et plus large pour les citoyens de Pékin.

"Selon le président du tribunal, Zhang Wen, l'intégration de l'IA et du cloud computing au système de services de contentieux permettra au public de mieux profiter des avantages de l'innovation technologique en Chine." - Radii Chine.

L'intelligence artificielle est également utilisée en Chine pour passer au crible les messages, commentaires et autres activités en ligne sur les réseaux sociaux afin d'aider à constituer des preuves contre des accusés potentiels. La police de la circulation en Chine commence également à utiliser la technologie de reconnaissance faciale pour identifier et condamner les contrevenants.

D'autres forces de police du monde entier utilisent également des technologies similaires.

L'intelligence artificielle pourrait-elle jamais prendre de bonnes décisions?

La réponse à cette question n'est pas simple. Bien que l'IA puisse prendre certains types de décisions juridiques, cela ne signifie pas nécessairement que c'est une bonne idée.

De nombreux systèmes d'IA et algorithmes prédictifs qui utilisent l'apprentissage automatique ont tendance à être entraînés en utilisant des ensembles de données existants ou des informations historiques existantes.

Bien que cela semble être une approche relativement logique, elle dépend fortement du type et de la qualité des données fournies.

"Junk in, junk out." comme on dit.

L'une des principales utilisations de l'apprentissage automatique et du big data consiste à identifier les corrélations, ou corrélations apparentes, au sein des ensembles de données. Cela pourrait potentiellement conduire à de faux positifs, dans le cas des données sur la criminalité, et ne serait en fait pas très utile pour identifier les causes sous-jacentes de la criminalité.

Comme le prévient un autre adage célèbre, «la corrélation n'est pas la causalité».

Les humains sont souvent tout aussi coupables de cette erreur logique qu'une réplique artificielle pourrait l'être. Un exemple célèbre est la corrélation entre le faible revenu et la propension à la criminalité d'une personne.

La pauvreté n'est pas nécessairement une cause directe de comportement criminel, mais elle peut être une cause indirecte, créant des conditions qui rendent la criminalité plus probable.

Si des erreurs de corrélation similaires ne sont pas traitées correctement, une décision ou un jugement d'application de la loi de l'IA pourrait rapidement dégénérer en un cercle vicieux d'imposition de sanctions trop sévères ou trop indulgentes.

Comme pour tout dans la vie, la situation est en fait plus nuancée qu'il n'y paraît. Les humains ne sont pas non plus des machines de décision parfaites.

Si les études de 2018 sont également correctes, il semble que l'IA puisse être plus rapide et plus précise pour détecter les problèmes juridiques potentiels que les êtres humains. Cela confirme l'argument selon lequel l'IA devrait être utilisée dans des rôles de soutien juridique, ou au moins en examinant les précédents juridiques.

L'IA pourrait-elle être utilisée pour remplacer les juges humains?

Comme nous l'avons déjà vu, l'IA et les algorithmes avancés sont déjà utilisés dans le monde entier pour certaines tâches de bureau et de collecte de données. En fait, ils font une partie du «travail de fond» pour les juges et les avocats humains.

Mais pourraient-ils jamais être utilisés pour remplacer complètement les humains dans un système judiciaire? Quels en seraient exactement les avantages et les inconvénients?

Beaucoup diraient qu'une IA devrait être en mesure d'éliminer tout parti pris dans le processus de jugement final. Leurs décisions finales devraient, en théorie, se fonder uniquement sur les faits et les précédents juridiques existants.

Ceci, bien sûr, est censé être déjà le cas des juges humains. Mais tout être humain est sensible à l'incompréhension, aux préjugés et aux préjugés inconscients, malgré les meilleures intentions.

Mais, probablement plus important encore, ce n'est pas parce que quelque chose est loi que c'est juste. Le comportement «bon» et «mauvais» n'est ni noir ni blanc, c'est une construction hautement nuancée et complètement humaine.

Ces questions restent du domaine de la philosophie et non de l'informatique. Cependant, d'autres seraient probablement en désaccord, et cela pourrait être considéré comme une «bonne» chose.

Les juges ont également le rôle de prendre des décisions sur la peine du délinquant après sa condamnation. Celles-ci peuvent aller de la mineure (petites amendes) à la vie qui change, comme l'imposition de l'emprisonnement de longue durée, ou même la peine de mort dans les domaines où elle est appliquée.

Ces décisions sont généralement fondées sur un ensemble de lignes directrices en matière de détermination de la peine qui tiennent compte de facteurs tels que la gravité d'un crime, ses effets sur les victimes, les condamnations antérieures et la probabilité de récidive du condamné. Comme nous l'avons vu, c'est un domaine dans lequel l'IA et les algorithmes prédictifs sont déjà utilisés pour aider au processus de prise de décision.

Les juges peuvent, bien entendu, ignorer complètement la recommandation de l'IA. Mais cela pourrait ne pas être possible si les humains étaient complètement retirés du processus.

Peut-être pourrait-on plaider ici pour des panels de juges de l'IA constitués d'un réseau antagoniste génératif (GAN).

Mais cela dépasse le cadre de cet article.

Les juges de l'IA seraient-ils impartiaux?

Un avantage apparent de l'utilisation de l'IA pour prendre des décisions est que les algorithmes ne peuvent pas vraiment avoir de biais. Cela devrait rendre l'IA presque parfaite pour les décisions juridiques, car le processus devrait être fondé sur des preuves plutôt que subjectif - comme cela peut être le cas pour les juges humains.

Cela semble parfait, n'est-ce pas? Mais «l'herbe n'est pas toujours plus verte de l'autre côté».

Les algorithmes et l'IA ne sont pas parfaits en eux-mêmes à cet égard. C'est principalement parce que tout algorithme ou IA doit d'abord être codé par un humain.

Cela peut introduire un biais involontaire du décalage.

Les IA peuvent même apprendre et imiter les préjugés de leurs homologues humains et des données spécifiques avec lesquelles elles ont été formées. Cela pourrait-il jamais être atténué?

Un autre problème est de savoir qui supervisera les juges de l'IA? Leurs décisions pourraient-elles être contestées à une date ultérieure? Les juges humains auraient-ils préséance sur une décision d'une IA, ou vice versa?

Le Sommet mondial des gouvernements qui s'est tenu en 2018 a fait une conclusion intéressante et poignante sur ce sujet qu'il convient de répéter textuellement: -

«On ne sait pas encore laquelle de ces technologies pourrait se généraliser et comment les différents gouvernements et systèmes judiciaires choisiront de surveiller leur utilisation.

Le jour où la technologie deviendra le juge du bon et du mauvais comportement humain et attribuera des punitions appropriées se trouve encore dans le futur.

Cependant, les systèmes juridiques fournissent souvent des exemples idéaux de services qui pourraient être améliorés, tandis que les essais sont susceptibles de bénéficier d'une meilleure analyse des données. La loi exige souvent un procès pour créer un précédent - alors méfiez-vous du cas type de AI en tant que juge. "

En conclusion, l'IA pourrait-elle jamais remplacer les professionnels du droit humains ou être plus efficace dans la prise de décision juridique? La réponse, semble-t-il, est à la fois oui et non.

Oui, en ce qui concerne l'exécution de rôles de soutien ou de conseil comme la collecte de preuves ou l'estimation de la probabilité de récidive. Non, en ce qui concerne les jugements définitifs et les décisions relatives à la peine.

Il est probablement prudent de donner aux êtres humains, plutôt qu'au code, le dernier mot en matière de détermination de la peine. Le droit et les systèmes juridiques peuvent, après tout, être légitimement qualifiés de construction humaine.

Les systèmes juridiques existants sont à la fois magnifiquement truqués et parfois illogiques, et ont été adaptés et améliorés à mesure que le sens et les sensibilités évoluaient au fil du temps - et cela convient parfaitement aux êtres humains. La plupart des systèmes juridiques ne sont pas gravés dans le marbre pour toujours; ils évoluent comme la société.

Il est peu probable qu'une machine puisse jamais être entraînée à comprendre, faire preuve d'empathie ou porter un jugement «dans l'esprit de la loi».

Peut-être que les humains, avec toutes nos imperfections et nos incohérences logiques, sont les seuls arbitres possibles de justice les uns sur les autres. Pour cette raison, on pourrait soutenir que la "justice" ne devrait jamais être déléguée aux machines, car leur "logique froide" pourrait être considérée comme étant en contradiction avec la "condition humaine".

Mais nous vous laisserons vous décider.


Voir la vidéo: LIntelligence Artificielle peut elle faire bon ménage avec la justice? (Août 2022).