Swiss Ai Research Overview Platform
Dans ce projet, nous nous concentrons sur l'analyse des facteurs d'influence pertinents pour la décision finale d'un système de reconnaissance faciale basé sur l'IA en tant qu'étape essentielle pour comprendre et améliorer les processus sous-jacents impliqués. L'approche scientifique poursuivie dans le projet est conçue de manière à être applicable à d'autres cas d'utilisation tels que les tâches de détection d'objets et de reconnaissance de formes dans un ensemble plus large d'applications.
Grâce à la nature interdisciplinaire du consortium, les résultats de XAIface affecteront de nombreux domaines et peuvent être résumés comme suit : (i) développer des directives juridiques claires sur l'utilisation et la conception de la reconnaissance faciale basée sur l'IA selon l'approche de la confidentialité dès la conception ; (ii) démêler les informations démographiques (âge, sexe, origine ethnique) de la représentation globale du visage afin de comprendre l'impact de ces traits sur la reconnaissance faciale, mais aussi de développer une reconnaissance faciale sans démographie ; (iii) aborder les questions d'équité et de non-discrimination en suivant l'idée d'élimination des préjugés pendant la formation ; (iv) optimiser le compromis entre interprétabilité et performance ; (v) créer des outils qui permettront d'évaluer et de mesurer les performances et d'expliquer les décisions des systèmes de reconnaissance faciale basés sur l'IA ; (vi) analyser l'impact du codage d'images pour mieux comprendre en quoi les futures solutions de codage basées sur l'IA peuvent être différentes du point de vue de l'explicabilité de la reconnaissance. Les résultats obtenus alimenteront la mise en œuvre d'un système de reconnaissance faciale de bout en bout pour étudier l'impact des différents processus du système en termes de performance de reconnaissance et d'explicabilité. Cela fournira une étude de cas d'utilisation sur la façon d'effectuer une analyse d'explicabilité avec les outils fournis par notre projet.
Face recognition has become a key technology in our society, frequently used in multiple applications, while creating an impact in terms of privacy. As face recognition solutions based on artificial intelligence (AI) are becoming popular, it is critical to fully understand and explain how these technologies work in order to make them more effective and accepted by society. In this project, we focus on the analysis of the influencing factors relevant for the final decision of an AI-based face recognition system as an essential step to understand and improve the underlying processes involved. The scientific approach pursued in the project is designed in such a way that it will be applicable to other use cases such as object detection and pattern recognition tasks in a wider set of applications.Thanks to the interdisciplinary nature of the consortium, the outcomes of XAIface will affect many fields and can be summarized as follows:
(i) develop clear legal guidelines on the use and design of AI-based face recognition following the privacy-by-design approach;
(ii) disentangling demographic information (age, gender, ethnicity) from the overall face representation in order to understand the impact of such traits on face recognition but also to develop demographic-free face recognition;
(iii) address fairness and non-discrimination issues by following the idea of de-biasing during the training;
(iv) optimize the tradeoff between interpretability and performance;
(v) create tools that will allow assessment and measurement of performance and explanation of decisions of AI-based face recognition systems;
(vi) analyse image coding impact to better understand how future AI-based coding solutions may be different from a recognition explainability point of view.
The achieved results will feed into the implementation of an end-to-end face recognition system for studying the impact of the various system processes in terms of recognition performance and explainability. This will provide a use case study on how to perform explainability analysis with the tools provided by our project.
Last updated:07.06.2022