On présente souvent les intelligences artificielles (IA) comme des outils magiques capables de résoudre des problèmes complexes en un clin d’œil. Mais fonctionnent-elles toujours correctement ? 🤔 C’est la question à 1 million de tokens … et la réponse est non ! Comme tout produit humain, les IA sont imparfaites et peuvent même être biaisées. Et ces biais IA peuvent avoir des conséquences importantes sur ces résultats, notamment d’un point de vue éthique. Allez, je vous explique !
Les origines des biais dans les IA
Pour comprendre d’où viennent ces biais des IA, il faut déjà bien comprendre la manière dont les IA sont conçues et entraînées.
Une IA n’est rien d’autre qu’une très grande base de données (bon, c’est un peu plus compliqué que ça, mais restons simples 😉) programmée pour accomplir une tâche spécifique, que ce soit générer des images, produire du contenu, ou encore effectuer de la reconnaissance faciale.
Afin d’être en mesure de réaliser cette tâche, l’intelligence artificielle va suivre un entraînement poussé.
Prenons par exemple une IA dont la mission est de reconnaître des images de voiture et de moto. On lui envoie des milliers d’images, certaines étiquetées comme “voiture” et d’autres comme “moto”. Ainsi, lorsqu’elle verra une nouvelle image, elle saura être en mesure de faire la différence entre une voiture et une moto par exemple. Mais que se passerait-il si jamais elle reçoit une photo d’un vélo ? Ou d’un quad ? Est-ce qu’elle arrivera à savoir que ce n’est ni une moto ni une voiture ? Eh bien tout va dépendre de la qualité et de l’exhaustivité de ses données d’entraînement. Ce problème est ce qu’on va appeler un “biais de données”. Si les données manquent de diversité ou ne représentent pas bien la réalité, cela impactera les résultats de l’IA.
Cela peut sembler facile à corriger en ajoutant simplement plus de données diverses. Mais en réalité, ce n’est pas toujours aussi simple ! 😅
Les différents types de biais IA
Bon, maintenant qu’on sait que les IA ont des biais qui altèrent leur résultat, vous vous demandez certainement : quels sont ces biais ? Je vous en ai listé six, mais c’est fort probable qu’il en existe d’autres.
1. Biais de données
Le biais de données survient lorsque les données utilisées pour entraîner l’intelligence artificielle sont biaisées ou non représentatives. C’est notamment le cas pour l’exemple mentionné plus haut pour la reconnaissance de voiture et de moto.
Un autre exemple tristement célèbre est celui des systèmes de reconnaissance faciale. Si une IA est principalement entraînée avec des visages de personnes blanches, elle reconnaitra plus difficilement les visages de personnes de couleur.
En 2018, une étude du MIT a révélé que certains systèmes de reconnaissance faciale avaient un taux d’erreur de 34,7 % pour identifier correctement les femmes noires, contre seulement 0,8 % pour les hommes blancs. 😲 Les conséquences ? Ces systèmes peuvent conduire à des discriminations, notamment dans le cadre de la sécurité et de la surveillance…
2. Biais de conception
Le biais de conception survient lorsque les préjugés ou les hypothèses des concepteurs se reflètent dans l’algorithme qu’ils créent. Par exemple, si les développeurs pensent que tous les utilisateurs d’une application sont experts en technologie, ils peuvent concevoir une interface complexe et difficile d’accès pour les novices.
De même, si les concepteurs ont des idées préconçues sur ce que les utilisateurs veulent, cela peut se refléter dans le comportement de l’IA. Imaginez une IA conçue pour vous conseiller dans un achat immobilier. Si les concepteurs partent du principe que tout le monde veut un appartement en ville, l’IA ne vous proposera pas cette jolie maison de campagne dont vous rêvez (ce qui serait bien dommage !).
3. Biais de confirmation
Le biais de confirmation est un biais cognitif bien connu, et il ne se limite pas aux êtres humains ! Les IA aussi peuvent renforcer les croyances existantes. Prenons par exemple, les systèmes de recommandation de contenu, comme ceux utilisés par YouTube ou Netflix. Cess derniers peuvent renforcer nos préférences en nous proposant des contenus similaires à ceux que nous avons déjà regardés. Cela paraît pratique, mais ce système enferme aussi les utilisateurs dans une « bulle » fictive, où ils ne voient que des opinions similaires aux leurs.
C’est un peu comme si vous ne mangiez que des steaks toute votre vie sans jamais goûter aux légumes. Le jour où vous croiserez un brocoli pour la première fois, ça vous fera tout bizarre.
4. Biais d’échantillonnage
On parle de biais d’échantillonnage lorsque l’échantillon de données utilisé pour entraîner l’intelligence artificielle n’est pas représentatif de la population globale. Par exemple, un modèle de prévision de la santé basé uniquement sur des données de patients d’une région spécifique pourrait ne pas être applicable à d’autres régions. Un cas frappant est celui d’un algorithme de santé aux États-Unis qui, en 2019, a été conçu pour identifier les patients nécessitant des soins supplémentaires. Malheureusement, comme il avait été entraîné sur des données biaisées, il a sous-estimé les besoins de soins pour les patients noirs par rapport aux patients blancs.
De même, si l’on entraîne une IA à générer des images de personnes uniquement avec des photos de femmes, elle ne pourra pas créer d’images d’hommes.
5. Biais d’automatisation
Le biais d’automatisation survient lorsque l’on accorde une confiance aveugle aux décisions des intelligences artificielles, sans permettre d’intervention humaine. Imaginez un système judiciaire où une IA déciderait de la culpabilité d’un suspect en se basant sur des critères biaisés. Si la machine juge la personne coupable, elle pourrait être condamnée à la peine de mort sans possibilité de recours humain (oui, cet exemple fait froid dans le dos et pourrait sortir tout droit d’un épisode de Black Mirror 😬). Outre l’aspect terrifiant d’un tel système, cela entraînerait des discriminations injustes et des conséquences désastreuses. En effet, il n’y aurait aucun moyen de corriger une erreur en disant : « Hé, attends, tu t’es trompé ! » 😱
Un autre exemple, tiré d’une histoire vraie cette fois-ci, concerne un système de crédit automatisé. En 2020, la banque américaine Goldman Sachs a été critiquée pour discrimination après que l’algorithme utilisé pour les clients d’Apple Card a accordé des limites de crédit plus élevées aux hommes qu’aux femmes, et ce, malgré des revenus et des antécédents financiers similaires. Ouch ! 😬
6. Biais temporel
Ce n’est pas tout à fait un biais classique, mais plutôt une petite subtilité à avoir en tête quand on utilise des IA génératives, surtout si vous cherchez des infos fraîches ou du contenu texte. Comme je vous l’ai dit au début, les IA sont entraînées avec plein de données. Mais ces données ne sont pas toujours de première jeunesse ! 😅 Par exemple, si une IA a été nourrie avec des données de 2021, ne vous attendez pas à ce qu’elle vous donne des infos sur 2024 (à moins qu’elle ne soit connectée à internet, bien sûr).
Et là, attention ! Si l’IA n’a pas accès à des données récentes, elle pourrait vous sortir ce qu’on appelle des « hallucinations« . Il s’agit d’informations entièrement inventées par l’IA afin de vous fournir une réponse coûte que coûte. C’est sympa de sa part, mais pas forcément très utile quand les infos sont fausses ! 😜 Donc, toujours bien vérifier ce que l’IA raconte, surtout quand ça concerne des informations récentes !
Comment corriger et éviter les biais des IA ?
Vous l’aurez compris mais ces biais peuvent avoir d’importantes conséquences pour leurs utilisateurs (et même pour l’entreprise qui l’utilise).
La bonne nouvelle, c’est qu’il existe des moyens de corriger et d’éviter ces biais ! (ouf, on devrait pouvoir éviter mon scénario catastrophe de Black Mirror !).
- Utiliser des données d’entraînement de qualité. Vous vous en doutez à présent mais il est essentiel que les données soient le plus diversifiées et représentatives possibles. Notre monde est beau et complexe et il faut pouvoir prendre en compte toutes ses facettes. Cela signifie donc une collecte de données plus inclusive et la prise en compte de toutes les différences possibles.
- L’intervention humaine reste indispensable. Plutôt que de se fier aveuglément aux décisions automatisées, il est important de permettre une révision humaine, notamment dans les domaines sensibles comme le crédit, la justice ou la santé. N’oublions pas que même si les intelligences artificielles sont des machines, elles restent avant tout créées et utilisées par des humains.
- Mise en place de règles éthiques et de bonnes pratiques. C’est peut-être la partie la plus longue à mettre en œuvre, mais les nouvelles lois et régulations autour de l’intelligence artificielle joueront un rôle déterminant dans son futur et ses applications.
Conclusion : que penser des biais dans les IA ?
Les IA, bien que puissantes, ne sont pas infaillibles. Les biais existent inévitablement, mais cela ne signifie pas qu’il faut les accepter sans question. En comprenant mieux ces biais, en améliorant la conception des algorithmes et en maintenant une vigilance éthique, nous pouvons travailler à rendre les IA plus justes et plus fiables.
Alors, la prochaine fois que vous interagissez avec une IA, souvenez-vous : même les machines peuvent se tromper ! 🤖💬
Et n’oubliez pas de partager cet article pour sensibiliser votre réseau sur les biais de l’IA ! 🚀
Les articles complémentaires :




