Encadrer les biais algorithmiques : un impératif

biais algorithmiques
Image par Alexandra_Koch de Pixabay

Les risques de discrimination résultant de biais algorithmiques sont bien réels. C’est le thème abordé par Alain Bensoussan dans le dernier numéro de Planète Robots.

Les systèmes d’intelligence artificielle (SIA) peuvent intégrer intentionnellement ou non des partis pris discriminatoires, appelés « biais », difficiles à détecter et à corriger. Une étude récente de l’Agence des droits fondamentaux de l’Union européenne (1) analyse le phénomène et comment il peut affecter la vie des personnes.

Les biais algorithmiques dans les systèmes d’assistance à la prise de décision

Les algorithmes sont utilisés pour prendre des décisions souvent importantes, comme l’admission à une université, l’octroi d’un prêt ou l’attribution d’un emploi. Or ils peuvent être influencés par les données et les préjugés de ceux qui les ont conçus et entraînés.

Une norme ISO définit le biais comme une « différence systématique dans le traitement de certains objets, personnes ou groupes par rapport à d’autres » ; le traitement s’entendant de « tout type d’action, y compris la perception, l’observation, la représentation, la prédiction ou la décision ».

Les données utilisées pour entraîner les algorithmes peuvent en effet être biaisées ou inexactes et entraîner des décisions injustes ou inéquitables.

Les biais dans les SIA peuvent se manifester de différentes manières (3). Ils peuvent ainsi affecter les données initialement employées. On sait combien les données d’entraînement jouent un rôle prépondérant dans le fonctionnement de nombreux systèmes d’IA. Une donnée n’est jamais un fait totalement « objectif ».

Planète Robots n°78

Les pistes à exploiter pour limiter les risques

La norme ISO précitée offre des pistes pour limiter les risques. Elle analyse les pratiques actuelles pour détecter et traiter les biais dans les systèmes d’IA ou dans la prise de décision assistée par l’IA, quelle qu’en soit la source.

Ainsi, elle aborde toutes les phases du cycle de vie du système d’IA, y compris, mais sans s’y limiter :

  • la collecte de données,
  • la formation, l’apprentissage continu,
  • la conception,
  • les tests,
  • l’évaluation et l’utilisation,

afin d’éliminer les biais à chacun de ces stades. (…)

Isabelle Pottier
Lexing Département Etudes et publications

Lire la suite : « Encadrer les biais des algorithmes : un impératif », Planète robots n°78.

Notes

(1) Bias in algorithms – Artificial intelligence and discrimination, FRA Report 2022.
(2) Norme ISO/CEI TR 24027:2021 Biais dans les systèmes d’IA et prise de décision assistée par l’IA, novembre 2021.
(3) Voir notre ouvrage, « Algorithmes et droit », Editions Lexing, Mars 2023.

Retour en haut