L’intelligence artificielle (IA) révolutionne tous les secteurs à tous les niveaux. Pour les entreprises, les gains que peut apporter l’IA en termes d’efficacité et de rapidité dans la prise de décision sont importants. Cependant, elle n’est pas sans défauts. Ces systèmes sont performants à la hauteur des données sur lesquelles ils s’appuient. Si ces données sont biaisées, l’IA peut également l’être.
Ne pas anticiper le risque de biais revient à compromettre les bénéfices de l’IA et à ralentir l’adoption de technologies dans son ensemble.
Table des matières
Qu’est-ce qu’un biais algorithmique ?
Les biais cognitifs sont d’origines humaines. On en trouve de nombreuses sortes, comme les biais de confirmation qui nous poussent à croire une information lorsqu’elle corrobore nos croyances existantes, ou encore les biais historiques qui se contentent de reproduire les inégalités du monde réel.
Ainsi, les algorithmes sont le reflet de leurs créateurs qui induisent parfois des biais.
Un biais algorithmique est une anomalie dans les résultats produits par les algorithmes de machine learning ou de deep learning. Ces biais ont des conséquences importantes sur les décisions prises par les systèmes d’IA.
Un algorithme est biaisé lorsque son résultat n’est pas neutre, loyal ou équitable. Trois notions portent cette définition : la neutralité, la loyauté et l’équité.
- Neutralité : Les algorithmes doivent fonctionner de manière impartiale et traiter toutes les données de manière équitable, indépendamment de leurs caractéristiques spécifiques.
- Loyauté : Un algorithme loyal « dit ce qu’il fait et fait ce qu’il dit » sans renforcer ou reproduire une quelconque discrimination.
- Équité : Des principes tels que l’anti-classification, la parité de classification et la calibration sont utilisés pour éviter les erreurs qui faussent les données d’entraînement des modèles prédictifs.
Les conséquences des biais algorithmiques
Les biais dans l’IA ont des répercussions sérieuses. Ils renforcent les inégalités existantes, conduisent à des décisions injustes et sapent la confiance du public dans les technologies d’IA. On trouve des exemples très médiatisés de disparités et de préjugés dans l’IA et des dommages qu’ils peuvent causer.
- Dans le domaine de la santé : Des systèmes de diagnostic assisté par ordinateur ont montré des taux de précision plus faibles pour les patients afro-américains que pour les patients blancs.
- Dans le recrutement : Des outils d’IA biaisés peuvent écarter injustement certains candidats. Une étude de Bloomberg a révélé que les images générées par IA représentaient systématiquement les PDG comme des hommes blancs, perpétuant ainsi des stéréotypes de genre et de race.
- Dans la justice prédictive : Les outils de police prédictive identifient les quartiers où la criminalité est le plus susceptible de se produire. Mais s’appuyant sur les données historiques des arrestations, cela renforce souvent les modèles existants de profilage social et de ciblage des minorités.
Les biais les plus souvent détectés
On trouve souvent les mêmes biais, voici une liste des plus rencontrés :
Biais de sélection
Ce biais survient lorsque les données d’entraînement ne représentent pas fidèlement la population cible. Par exemple, un algorithme de calcul de crédit entraîné uniquement sur des prêts accordés par le passé peut perpétuer des discriminations existantes.
Biais de représentation
Il se produit quand une source de données manque de diversité. Wikipedia, par exemple, est principalement rédigé par des hommes blancs, ce qui peut influencer le contenu et les perspectives présentées.
Biais historique
Ce type de biais reflète les inégalités déjà présentes dans la société. Si les postes à haute responsabilité sont majoritairement occupés par des hommes, les algorithmes peuvent renforcer cette tendance.
Les opinions des autres peuvent influencer le comportement des utilisateurs. Par exemple, une avalanche de commentaires positifs décourage les avis négatifs, et vice versa.
Biais de présentation
La conception d’une interface peut orienter les choix des utilisateurs. Pensez à la façon dont les options pour accepter ou refuser les cookies sont présentées sur les sites web.
Biais amplifiés par les modèles prédictifs
Les algorithmes eux-mêmes peuvent exacerber certains biais :
- Biais d’agrégation : Un modèle qui obtient de bonnes performances globales mais échoue pour certains sous-groupes spécifiques.
- Biais d’omission : Certaines informations importantes sont absentes du modèle, comme l’arrivée d’un concurrent dans un modèle de rétention client.
- Biais d’évaluation : L’évaluation d’un modèle sur des données non représentatives conduit à une surestimation de ses performances réelles.
Comment lutter contre les biais algorithmiques ?
Pour cela, l’entreprise doit tout d’abord définir ses priorités éthiques. Selon la culture, le pays d’origine ou la cible de l’algorithme, celles-ci diffèrent. Ensuite, il faut une vision holistique du cycle de développement analytique. Il doit être supervisé entièrement des données d’entraînement à la prise de décision. Sinon, les efforts fournis dans la lutte contre les biais sont vains.
Dans cette optique, il est essentiel d’établir une gouvernance autour de la collecte et de la gestion des données, afin d’arbitrer entre les données disponibles telles quelles, au risque de refléter les biais de la société, et une sélection en amont. Ainsi, il faut s’assurer de la sélection rigoureuse des données, qu’elles soient représentatives et diversifiées.
Pour cela, rien de tel qu’une équipe pluridisciplinaire qui soit à même de collaborer pour détecter et corriger les biais. De même, les modèles d’IA doivent être régulièrement évalués et ajustés pour détecter et corriger les biais émergents.
Concrètement, les stratégies à adopter pour créer des garde-fous sur l’ensemble de la chaîne de production des systèmes d’IA reviennent à :
- Évaluer les risques liés aux variables d’entrée des algorithmes.
- Surveiller les biais possibles dans les données d’apprentissage.
- Évaluer la justesse des prédictions effectuées.
Aussi, les entreprises ne doivent pas hésiter à solliciter des experts, comme les équipes de MIA, pour les accompagner quand cela est nécessaire. Outre la technologie employée, il faut que les équipes métiers soient bien formées et en capacité de travailler ensemble.
En conclusion
Les biais dans l’IA représentent un défi complexe mais surmontable. En prenant conscience de ces biais et en mettant en œuvre des stratégies pour les identifier et les atténuer, nous pouvons créer des systèmes d’IA plus équitables et bénéfiques pour tous. L’objectif n’est pas seulement d’améliorer la technologie, mais aussi de construire une société plus juste et inclusive.