Encadrer les biais des algorithmes : un impératif

biais des algorithmes

« Encadrer les biais des algorithmes : un impératif ». C’est le thème abordé par Alain Bensoussan dans le dernier numéro de Planète Robots.

Les systèmes d’intelligence artificielle (SIA) peuvent intégrer intentionnellement des partis pris discriminatoires difficiles à détecter et à corriger. Des études récentes sur les biais algorithmiques permettent d’entrevoir des pistes pour en limiter les risques.

On a recours à des algorithmes pour prendre des décisions souvent importantes, comme :

  • l’admission à une université,
  • l’octroi d’un prêt ou
  • l’attribution d’un emploi ou d’une aide sociale.

Or, ils peuvent être influencés par les données et les préjugés de ceux qui les ont conçus et entraînés

Les biais des algorithmes dans les systèmes d’assistance à la prise de décision

L’Organisation internationale de normalisation a publié fin 2021, une norme (1) qui définit le biais comme une « différence systématique dans le traitement de certains objets, personnes ou groupes par rapport à d’autres », le traitement s’entendant de « tout type d’action, y compris la perception, l’observation, la représentation, la prédiction ou la décision ».

Les biais algorithmiques peuvent se manifester de différentes manières (2). Ils peuvent affecter les données initialement employées. Une donnée n’est jamais un fait totalement « objectif ». Un facteur de discrimination peut naître de façon indirecte si une donnée cible une caractéristique qui peut se révéler discriminatoire.

Ainsi, une simple adresse postale peut indiquer avec une certaine probabilité que la personne est issue d’une catégorie de population (par exemple, de l’immigration), en fonction de la concentration de cette catégorie dans certaines zones géographiques.

Une IA autoapprenante pourra ainsi déceler une corrélation entre l’adresse et le sens de la décision, et aboutir à des résultats discriminatoires, alors même que l’origine des personnes n’est pas renseignée.

Planète Robots n°78

Les risques de discrimination 

Les biais algorithmiques soulèvent donc des préoccupations considérables en termes de droits des individus concernés par une prise de décision algorithmique. Ils devraient être détectés, signalés et neutralisés au stade le plus précoce possible.

Ainsi, dans son dernier rapport paru en décembre 2022 (3), l’Agence des droits fondamentaux de l’Union européenne a développé deux études de cas qui analysent la façon dont les biais apparaissent dans les algorithmes et comment ils affectent la vie des personnes.

De leur côté, le Défenseur des droits et la Cnil ont dès 2020, mis l’accent sur les risques de discrimination pouvant résulter des biais algorithmiques (4).

Les risques sont donc bien réels (…)

Lire la suite : « Encadrer les biais des algorithmes : un impératif », Planète robots n°78.

Notes

(1) Norme ISO/CEI TR 24027:2021 Biais dans les systèmes d’IA et prise de décision assistée par l’IA, novembre 2021.
(2) Voir notre ouvrage, Algorithmes et droit, Editions Lexing, Mars 2023.
(3) Bias in algorithms – Artificial intelligence and discrimination, FRA Report 2022.
(4) Algorithmes et discriminations, Defenseurdesdroits.fr, 31 mai 2020.

Retour en haut