Intervention de Lina Fahed et Ikram Chraibi Kaadoud au programme Women Techmakers Montréal et Québec 2021, de Google Developpers Group, intitulé «Intelligence artificielle explicable : vers des systèmes transparents, acceptables et éthiques ».

Peut-on comprendre et expliquer une décision automatisée prise avec un système d’intelligence artificielle ? Ferions-nous confiance à ce système autonome ? En tant qu’utilisateur, cela engage notre responsabilité et pose des questions. Deux chercheuses IA de l’IMT atlantique, Lina Fahed et Ikram Chraibi Kaadoud, sont intervenue à Women Teckmakers Montréal et Québec 2021, un programme mis en place par Google developpers Group afin de souligner le talent des femmes dans le milieu de l’informatique,  promouvoir la passion et à accroître la visibilité de la communauté technologique féminine. Nos chercheuses ont ainsi apporté des éléments de réponses à ces questions et discuter des concepts de transparence et éthique à travers l’explicabilité en IA, leur domaine de recherche actuel.

Contacts

Lina Fahed, enseignant chercheuse

Ikram Chraibi Kaadoud, post-doctorante

En savoir plus

dessin de policier qui arrête un automobiliste

“Does your car have an idea why my car pulled it over ?”

src:https://www.newyorker.com/cartoon/a19697

Dans de nombreux domaines, les mutations technologiques de ces dernières années ont mené à la disponibilité et à la prédominance de données complexes et hétérogènes. Par conséquent, de plus en plus de domaines d’application font appels aux systèmes d’intelligence artificielle (IA) dans le but de comprendre ces données, réaliser des prédictions et surtout aider l’humain à prendre des décisions. 

Dans notre quotidien, les prises de décisions automatisées grâce à des systèmes d’IA sont ainsi devenue une réalité quasi-omniprésente : algorithme de recommandation de médias, reconnaissance faciale, détection de cancer, etc. 

Dans ce contexte, l’humain, à la fois concepteur et utilisateur de tels systèmes d’IA, est un acteur incontournable. Amené à prendre des décisions basées sur ces systèmes, il engage sa responsabilité dans les choix qu’il effectue ce qui entraîne une exigence forte en termes de transparence et de compréhension des comportements de ces systèmes d’IA. Or, cette compréhension est loin d’être garantie puisque l’explicabilité des modèles (notamment les propriétés d’interprétabilité des modèles à base de réseaux de neurones) est actuellement un fort sujet de débat et d’étude au sein même de la communauté scientifique en IA.  Ce qui se traduit par de la méfiance de la part du grand public face à ces systèmes considérés alors « opaque » ou « boites noires ». 

De nouvelles exigences sociétales sont ainsi nées récemment en faveur de systèmes d’IA explicable et transparent. Juridiquement, cela s’est traduit par l’entrée en vigueur en 2018 du règlement européen général de protection de données (RGPD) octroyant le droit à chaque l’utilisateur d’exiger une explication des processus de traitement automatique de données tels que les systèmes d’IA. Cela a eu comme conséquence de restreindre l’utilisation et l’amélioration d’un certain nombre de modèles existants tant dans l’industrie que – et surtout – dans la recherche. 

Face à cette crise de confiance dans les systèmes d’IA, l’IA explicable (ou XAI pour eXplainableArtificial Intelligence) s’est imposée comme une solution permettant de démystifier le comportement des systèmes d’IA et les raisons à l’origine de ce dernier. 

Ensemble d’approches et d’algorithmes permettant de proposer des systèmes d’IA d’aides à la décision et d’explication de ces décisions, l’XAI a pour vocation d’expliquer le raisonnement d’un système, ses points forts et faibles, ainsi que son potentiel comportement dans le futur. Tout cela dans le but de favoriser l’acceptabilité de ces systèmes en prenant en compte les aspects éthiques et transparents, tout en prenant en compte le profil de l’utilisateur cible de cette explication. La dimension humaine est donc omniprésente depuis la conception, à l’utilisation, à l’évaluation.

En résumé, à travers ce talk, nous souhaitions proposer une introduction aux concepts d’explicabilité et d’interprétabilité en IA, ainsi qu’une description des grandes familles de stratégies en explicabilité d’un point de vue technique.  

Nous souhaitions également échanger autour des difficultés inhérentes au domaine notamment lorsque les données sont hétérogènes, ainsi que mettre en avant l’impact éthique et sociétale de ce sujet au vu de l’omniprésence des systèmes IA dans notre environnement.

Publié le 24.03.2021

par Mathieu SIMONNET