Comprendre les technologies de l’IA et leur cadre juridique

Comprendre les technologies de l'IAPetit-déjeuner du 19 septembre 2018 « Comprendre les technologies de l’IA et leur cadre juridique » – Didier Gazagne, Alix Desies et Zyed Zalila.

COMPRENDRE LES TECHNOLOGIES DE L’IA : VERS UNE REGLEMENTATION DE LA ROBUSTESSE ET DE L’EXPLICABILITE DES MODELES DECISIONNELS DE L’IA

Si l’Intelligence Artificielle est apparue dès les années 1950, plus de six décennies plus tard, la rivalité entre les deux principaux courants historiques – les Symbolistes et de l’autre, les Connexionnistes perdure encore en 2018 et s’affrontent dans un débat sur la robustesse et l’explicabilité.

  • Peut-on garantir la qualité des décisions adoptées au moyen de l’IA ? Comment expliquer qu’une telle décision ait été adoptée par un système doté d’IA ?

Comprendre les technologies de l’Intelligence Artificielle (IA) : vers une réglementation de la robustesse et de l’explicabilité des modèles décisionnels de l’IA est le thème du petit-déjeuner animé par Didier Gazagne et Alix Desies le 19 septembre 2018 et le Président – Directeur Général (Directeur R&D) d’Intellitech, Monsieur Zyed Zalila, également Professeur de mathématiques du Flou et d’IA à l’Université de Technologie de Compiègne (UTC).

Le débat a porté sur les enjeux de la robustesse et de l’explicabilité des modèles décisionnels de l’IA, une problématique particulièrement d’actualité suite aux conclusions du rapport de la commission Villani sur l’IA, au lancement en mai 2018 du projet XAI pour Explainable Artificial Intelligence financé par la DARPA et à la publication d’un livre blanc par l’AFNOR pour une IA robuste et explicable. La problématique se pose aujourd’hui de manière retentissante pour les dilemmes des systèmes ou véhicules autonomes et sur le rôle de l’Intelligence Artificielle.

L’entrée en application du RGPD complexifie d’autant plus la réflexion sur l’explicabilité. Le 12 juin dernier, dans sa décision, le Conseil constitutionnel a également relevé que le responsable du traitement doit s’assurer de la maîtrise du traitement algorithmique et de ses évolutions afin de pouvoir expliquer, en détail et sous une forme intelligible, à la personne concernée la manière dont le traitement a été mis en œuvre à son égard.

Zyed Zalila, Didier Gazagne et Alix Desies vous ont proposé de débattre sur les enjeux des technologies d’IA et des modèles décisionnels confrontés à la robustesse et à l’explicabilité, afin d’identifier l’état de l’art ainsi que les modes d’encadrement juridique garant de la fiabilité de l’IA et les opportunités à partir d’un ou plusieurs cas d’usage.

IDENTIFIER L’ETAT DE L’ART EN MATIERE DE ROBUSTESSE ET D’EXPLICABILITE DES MODELES DECISIONNELS ET L’ENCADREMENT JURIDIQUE GARANT DE LA FIABILITE DE L’IA A PARTIR DE CAS D’USAGE (SYSTEMES AUTONOMES)

Les cas d’usage de l’intelligence artificielle sont nombreux : véhicules et systèmes autonomes, reconnaissance faciale ou de la parole, traduction automatique, robotique, programmation autonome pour ne citer que quelques exemples. Un panorama des techniques d’IA sera présenté afin d’offrir une vision globale sur l’état de l’art : réseau de neurones, deep learning, raisonnement probabiliste, technologies sémantiques, apprentissage supervisé ou non supervisé, apprentissage par renforcement, IA floue augmentée.

Un encadrement juridique garant de la fiabilité de l’IA. Ces technologies se développent dans des domaines de plus en plus stratégiques et sensibles. Cependant, l’absence d’une parfaite maîtrise rend leur usage délicat. Une réglementation doit être envisagée à la lumière des enjeux sécuritaires et/ou humanistes en fonction des secteurs de développement.

Aussi, les régulateurs européens et en particulier le régulateur américain s’intéresse déjà de très près à la manière dont les technologies de l’IA et modèles décisionnels seront explicables et pourront justifier les prises de décision des réseaux de neurones embarqués à bord des véhicules ou systèmes autonomes, et ayant entraîné des accidents mortels.

A l’occasion de ce petit-déjeuner débat, les enjeux de l’IA et des approches Symbolique et Connexionniste ont été passées au crible pour identifier l’état de l’art ainsi que les conditions d’encadrement juridique de l’IA pour en tirer toutes les opportunités en termes de business.

Que vous soyez experts ou spécialistes de l’Intelligence artificielle, juristes, porteurs de projets d’IA Cognitiviste ou Connexionniste ou simplement curieux ou anxieux, cet événement a permi d’échanger avec nos experts.

Le petit-déjeuner débat a eut lieu dans nos locaux, 58 Gouvion-Saint-Cyr, 75017 Paris.

Inscriptions closes

Retour en haut