Boris Ruf

Boris RufResearch Scientist Lead Expert in Algorithmic Fairness

18 octobre 2021

Fairness Compass: un pas de géant vers une IA digne de confiance

L'intelligence artificielle est aujourd’hui déjà largement utilisée dans différents segments du secteur de l'assurance, comme la prédiction des risques relatifs aux accidents ou aux crédits. Cependant, de nouveaux défis éthiques et juridiques ont émergé avec la montée en puissance de cette technologie. Pour nous aider à appréhender ces challenges, un nouvel outil novateur vient d'être dévoilé. Sélectionné pour le prix Gartner Eye on Innovation, le Fairness Compass a également été ajouté récemment à la bibliothèque mondiale AI Fairness du Forum économique mondial. Découvrez cette solution innovante qui marque un nouveau chapitre dans la quête pour une IA juste et digne de confiance.

IA et cyber-résilience

Read time:3 minutes

Télécharger le papier (en anglais)

Version anglaise

Télécharger

L’IA est devenue la norme en matière de collecte et d’analyse de donnée ces dernières années, et le Machine Learning a encore le potentiel de transformer les industries et d’améliorer les performances des entreprises dans de nombreux domaines. Cependant, les prédictions effectuées par une IA tendent parfois à provoquer des biais : de nombreux exemples ont été découverts ces dernières années, et de nouveaux cas apparaissent régulièrement. C’est l'un des principaux écueils de l'IA : si les données d'apprentissage comportent un préjugé, il est intégré et reproduit par l’algorithme. Cette situation peut se révéler pénalisante pour des minorités en fonction de leur genre, leur religion, leur origine ethnique ou encore leur âge. C'est là qu'intervient Fairness Compass.

Comment définir l’équité ?

Bien sûr, aucune organisation ne cherche à développer un modèle de Machine Learning injuste. Mais en pratique, il n'existe aujourd’hui aucune méthode pour transformer les principes éthiques en processus clairs. Les approches actuelles sont principalement techniques : elles se concentrent sur la calibration des algorithmes ou des données dans l’objectif de satisfaire un paramètre d'équité. Mais il existe de multiples paramètres, parfois contradictoires entre eux. Et pour cause : il n'existe pas de définition universelle de l'équité. La variable la plus appropriée pour mesurer l'équité dépend toujours du contexte d'application. C’est pourquoi toute solution durable pour tendre vers une IA équitable doit aller au-delà des méthodes techniques. Elle doit pouvoir expliquer ce que représente l'objectif d'équité mis en œuvre et pourquoi ce choix a été considéré comme le plus approprié pour le scénario donné.

Compass Fairness: une boussole pour une IA juste

Fairness Compass est un outil en ligne développé par AXA GETD (Group Emerging Tech and Data). Il formalise le processus de sélection et propose une procédure simple pour identifier la définition de l'équité la plus appropriée pour un système d'IA donné. Il est basé sur une série de questions concrètes concernant la nature des données, leur exactitude présupposée, les politiques d'équité en vigueur et la question de savoir si l'accent doit être mis sur la spécificité ou sur la sensibilité du modèle. Ces différents paramètres guident les praticiens de l'IA à travers le paysage complexe des paramètres existants pour choisir l'option la plus appropriée. De plus, le raisonnement qui sous-tend ces décisions est conservé, et peut ainsi servir de documentation à des fins de communication interne afin de garantir la transparence, et donc de favoriser la confiance dans la technologie.

Faciliter la prise de décision

Fairness Compass peut jouer un rôle important dans notre stratégie d'IA responsable et permettre aux équipes d'AXA d'agir pour le progrès humain en protégeant ce qui compte. Le choix du meilleur paramètre d'équité devient un processus transparent et simple. D'un point de vue commercial, cela facilite la prise de décision en supprimant l'incertitude. Il permet de déployer des technologies innovantes et offre un gain de temps substantiel, explique Boris Ruf, Research Scientist Lead Expert en Equité algorithmique.  

Fairness Compass représente par ailleurs une avancée significative pour le Machine Learning. Nous devons garder à l'esprit qu'en créant de nouveaux outils puissants, nous portons une responsabilité importante. L'équité est une notion très humaine et difficile à définir. C'est pourquoi je suis très fier de Fairness Compass : un nouvel outil qui nous guide pour choisir la meilleure méthode de mesure en fonction de chaque use case et de son contexte d’application. Il s'agit d'une étape importante dans nos efforts pour accomplir nos ambitions en matière d'IA, c'est-à-dire déployer cette technologie passionnante de façon juste et responsable, déclare Marcin Detyniecki, Group Chief Data Scientist et Head of AI Research and Thought Leadership.

Fairness Compass a été nommé pour le prix Gartner Eye on Innovation (un prix qui récompense les entreprises de services financiers pour leur utilisation innovante de la technologie). Plusieurs rapports d’organisations internationales sur la réglementation de l'IA font également référence au Fairness Compass, et il fait désormais partie de la bibliothèque mondiale AI Fairness du Forum économique mondial.

Cliquez ici pour voir l'outil, ou contactez Boris Ruf: boris.ruf@axa.com.

Intelligence artificielle : IA responsable et croissance à long terme

Intelligence artificielle : IA responsable et croissance à long terme

En savoir plus
IA : plus de puissance, mais aussi plus de responsabilité

IA : plus de puissance, mais aussi plus de responsabilité

En savoir plus
Can the insurance industry afford to ignore computable contracts?

Can the insurance industry afford to ignore computable contracts?

En savoir plus
Le métavers ou les métavers? Du futur des Big Techs vers les origines de l'internet

Le métavers ou les métavers? Du futur des Big Techs vers les origines de l'internet

En savoir plus