L’algorithme DataJust d’évaluation des préjudices

DataJust

Le dispositif algorithmique « DataJust » mis en œuvre par le décret du 27 mars 2020 vise à faciliter l’évaluation des préjudices corporels par les juridictions, à condition d’éviter certains écueils.

Le traitement DataJust

Le décret entré en vigueur le 30 mars (1) autorise la conception d’un algorithme qui va permettre de réaliser des évaluations de préjudices corporels ainsi qu’un référentiel indicatif d’indemnisation.

Il autorise le ministre de la justice à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel, dénommé « DataJust » qui a pour finalité de développer un algorithme prédictif en matière d’évaluation de préjudices par les juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels.

Ce dispositif algorithmique va permettre de recenser, par type de préjudice, les montants demandés et offerts par les parties à un litige ainsi que les montants alloués aux victimes en indemnisation de leur préjudice corporel dans les décisions de justice rendues en appel par les juridictions administratives et les formations civiles des juridictions judiciaires.

Le décret définit les finalités du traitement, à savoir :

  • l’évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative ;
  • l’évaluation d’un référentiel indicatif d’indemnisation des préjudices corporels ;
  • l’information des parties et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges ;
  • l’information ou la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels.

Il définit également la nature et la durée de conservation des données enregistrées ainsi que les catégories de personnes y ayant accès.

En ce qui concerne les catégories de données traitées, il s’agit des informations extraites des décisions de justice rendues en appel entre le 1er janvier 2017 et le 31 décembre 2019 par les cours d’appel et les cours administratives d’appel dans les seuls contentieux portant sur l’indemnisation des préjudices corporels. Ces informations sont extraites des bases de données de la Cour de cassation (JuriCA) et du Conseil d’Etat (Ariane).

Le décret précise enfin les modalités d’exercice des droits des personnes concernées.

Le droit d’information ne s’applique pas au traitement DataJust « compte tenu des efforts disproportionnés que représenterait la fourniture des informations » prévues par le Règlement général sur la protection des données (RGPD) (art. 14, § 1 à 4). De même, le droit d’opposition prévu à l’article 21 du RGPD ne s’applique pas « afin de garantir l’objectif d’intérêt public général d’accessibilité du droit ».

Les autres droits (d’accès, de rectification et à la limitation) s’exercent de manière indirecte auprès du ministre de la justice dans les conditions prévues respectivement aux articles 15, 16 et 18 du même règlement.

L’avis favorable de la Cnil sur le traitement DataJust

Saisie pour avis par le ministère de la Justice sur le projet de décret, la Cnil a émis un avis favorable dans sa délibération du 9 janvier 2020 (2).

Concernant la limitation de certains droits comme le droit d’opposition, la Cnil estime que compte tenu des précisions apportées, la limitation prévue n’appelle pas d’observation particulière de sa part.

La Cnil précise que le ministère entend, à terme, instituer ce dispositif de manière « pérenne ». Elle prend acte que le ministère s’engage à lui fournir, dans un délai maximum d’un an suivant la fin de la phase de développement, un bilan qui comportera les informations suivantes :

  • des éléments d’appréciation portant sur la présence d’éventuels biais de l’algorithme identifiés et les correctifs envisagés et/ou appliqués en conséquence ;
  • la liste précise des catégories de données et informations identifiées comme nécessaires au regard des finalités du traitement DataJust ainsi que la nature des données auxquelles chaque catégorie de destinataires pourra accéder ;
  • la description des processus de pseudonymisation supplémentaires qui seront appliqués.

Nonobstant un avis favorable, la Cnil demande à ce que ce bilan lui soit transmis en tout état de cause et, le cas échéant, avant toute mise en œuvre de la phase de pérennisation par un second traitement. Elle demande également que lui soient aussi communiqués, à l’occasion de ce bilan, une description détaillée des algorithmes, des méthodes mises en œuvre ainsi que les indicateurs de performance utilisés, les résultats obtenus avec ceux-ci et les modalités d’audit de l’algorithme utilisé.

Moderniser la justice tout en respectant les principes fondamentaux

De nombreux secteurs d’activité s’appuient aujourd’hui sur l’utilisation des algorithmes prédictifs. Si leur utilité, voire leur nécessité, dans certains domaines comme la santé (IA Watson) ou l’éducation (Algorithme d’admission post-bac) est désormais acquise, la question peut se poser en ce qui concerne le secteur de la justice (3).

Ce décret peut ouvrir la voie à de potentiels bouleversements pour le service public de la justice. En cela, il soulève des inquiétudes, tant de la part des avocats (4) que de la magistrature (5), tous souhaitant plus de transparence sur les conditions d’élaboration de ce traitement et de l’algorithme qui en sera issu.

Toutefois, dans ce secteur comme dans tout autre, il serait dommage de ne pas explorer le potentiel de ces outils pour soutenir le travail des professionnels du droit et des tribunaux et garantir une meilleure qualité de la justice.

Pour éviter les éventuels biais discriminatoires, il sera nécessaire lors de l’élaboration de l’algorithme, de tenir compte des principes fondamentaux tels que posés par la Charte éthique européenne sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires adoptés par la Commission européenne pour l’efficacité de la justice (CEPEJ) du Conseil de l’Europe en décembre 2018 (6).

Le recours à un algorithme étatique doublé d’un référentiel indicatif officiel d’indemnisation des préjudices corporels peuvent contribuer à moderniser la justice.

Le traitement DataJust semble ainsi poser les bases de la justice prédictive dans un domaine où les barèmes légaux des juridictions côtoient de nombreux outils supplémentaires d’aide à la décision, construits par les magistrats eux-mêmes (7).

Jérémy Bensoussan
Lexing Droit de l’intelligence artificielle & Contentieux technologiques
Isabelle Pottier
Lexing Alain Bensoussan Avocats

(1) Décret 2020-356 du 27 mars 2020.
(2) Cnil, délib. 2020-002, 9 janvier 2020.
(3) Voir A. Bensoussan, J. Bensoussan, IA, robots et droit, Ed. Larcier, Juillet 2019.
(4) Sur son compte Twitter, l’ANADAVI (Association nationale des avocats de victimes de dommages corporels) a rappelé son opposition à tout référentiel d’indemnisation participant à la justice numérique « déshumanisante », Tweet du 29 mars 2020, https://t.co/DA2c6NKfGA?amp=1 ; la présidente du CNB, la présidente de la Conférence des bâtonniers et le bâtonnier de Paris se sont entretenus dès le 31 mars 2020 avec la ministre de la justice. Ils ont fait état de leur surprise et de leur incompréhension et de la volonté de la profession d’attaquer ce décret devant le Conseil d’État en raison notamment « des risques qu’il recèle sur l’instauration d’un barème en matière de réparation des préjudices corporels », Communiqué CNB du 31 mars 2020.
(5) « DATAJUST : notre courrier à la ministre de la justice », Communiqués de presse du 3 avril 2020.
(6) Conseil de l’Europe, Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires, CEPEJ(2018)14, 3 décembre 2018.
(7) Une étude menée sous l’égide de la mission de recherche Droit & Justice a permis de recenser 122 outils à partir de 55 entretiens semi-directifs conduits auprès de juges et membres du parquet relevant de trois juridictions de premier degré de chaque type (soit 30 juridictions visitées), enrichie de deux établissements pénitentiaires et d’une exploration systématique de l’intranet justice : Isabelle Sayn, « Les barèmes (et autres outils techniques d’aide à la décision) dans le fonctionnement de la justice », Mission de recherche Droit et Justice, Septembre 2019. Pour accéder au rapport et à ses annexes : https://halshs.archives-ouvertes.fr/halshs-02283040.

Retour en haut