banner

Nouvelles

Jun 13, 2023

L'importance de l'IA explicable pour éliminer les préjugés à l'ère de ChatGPT

Depuis la création de l’intelligence artificielle, la technologie a été une source intermittente d’enthousiasme, d’inquiétude et, bien sûr, de progrès dans tous les secteurs.

De Skynet aux capacités de diagnostic révolutionnaires dans le domaine de la santé, l’IA a le pouvoir à la fois de capter l’imagination et de stimuler l’innovation.

Pour le grand public, les discussions autour de l’IA se concentrent généralement sur des scénarios apocalyptiques farfelus, sur les inquiétudes concernant les robots qui nous prendraient nos emplois ou sur l’enthousiasme suscité par la manière dont l’automatisation pourrait précipiter un paradigme plus équilibré entre le travail et la vie privée. Pour la plupart, l’application pratique et la compréhension de l’IA ont été largement cachées, ce qui a conduit à des malentendus comblant le vide.

Les cas d'utilisation les plus convaincants de l'IA ont longtemps été l'apanage des entreprises, des gouvernements et des géants de la technologie, mais tout a changé avec l'arrivée de ChatGPT d'OpenAI. Il s'agit du premier exemple d'un grand modèle de langage et de ses capacités génératives largement disponibles pour une consommation de masse.

Il a créé un terrain de jeu pour l’IA qui est immédiatement, et à des degrés divers, utile dans de nombreux contextes.

Le problème le plus flagrant, cependant, et qui existe depuis l’aube de l’IA, est celui des préjugés.

Ces derniers temps, les data scientists ont mis les bouchées doubles pour rechercher des moyens d'éliminer les biais des modèles, avec une pression particulière dans les secteurs où les résultats des modèles pourraient avoir un impact négatif sur les clients et les utilisateurs finaux.

Dans le domaine des services financiers, par exemple, les algorithmes décisionnels sont utilisés depuis de nombreuses années pour accélérer les décisions et améliorer les services. Mais dans le contexte des prêts, les « mauvaises » décisions qui sont le produit d’un modèle biaisé peuvent avoir des conséquences désastreuses pour les individus.

L'élimination des préjugés nécessite une stratégie à plusieurs volets, allant de la garantie que les équipes de science des données et d'apprentissage automatique sont représentatives des communautés pour lesquelles elles élaborent des solutions (ou, à tout le moins, comprennent les principes d'intégration de l'équité dans les modèles) jusqu'à la garantie que les modèles sont explicables.

La principale motivation derrière l’IA explicable en tant que meilleure pratique est l’élimination des modèles d’apprentissage automatique de type « boîte noire ». Les boîtes noires peuvent souvent être très performantes, mais si leurs résultats ne peuvent pas être compris, il existe peu de moyens de défense concrets contre les accusations d’inexactitude ou de discrimination.

Dans les secteurs où les modèles de prise de décision peuvent avoir de profondes conséquences, la pression en faveur d’une responsabilité accrue s’accroît de la part des consommateurs et des régulateurs. C’est pourquoi, à mon avis, les entreprises doivent chercher à prendre une longueur d’avance.

Les éléments clés d’un modèle qui doivent être expliqués lorsqu’on considère les biais sont souvent négligés. Les data scientists et les ingénieurs en machine learning disposent d'un pipeline standard sur lequel travailler lors de la création d'un modèle. Les données sont bien entendu au cœur de tout, nous commençons donc par explorer nos ensembles de données et identifier les relations entre eux.

Nous procédons ensuite à une analyse exploratoire des données qui nous permet de transformer les données sous une forme utilisable. Il est ensuite temps de traiter, de nettoyer et de prétraiter les données avant de commencer la génération de fonctionnalités afin de créer des descriptions plus utiles des données afin de résoudre le problème en question.

Nous expérimentons ensuite différents modèles, ajustons les paramètres et les hyperparamètres, validons les modèles et répétons le cycle jusqu'à ce que nous obtenions une solution hautement performante. Le problème ici est que sans un effort déterminé pour garantir l’équité à chaque étape, les résultats pourraient être biaisés.

Bien sûr, nous ne pouvons jamais garantir l’élimination complète des biais, mais nous pouvons faire des efforts pour garantir que chaque étape du développement d’un modèle soit conforme à une méthodologie qui donne la priorité à l’équité.

Ma recommandation pour y parvenir est de sélectionner d'abord divers ensembles de données pour les modèles de formation, c'est-à-dire ceux qui sont les plus représentatifs, et également de développer des processus et une documentation standardisés qui expliquent les modèles et comment ils se conforment à la méthodologie, afin que les performances et les décisions puissent être compris.

PARTAGER