Une impression de déjà-vu

This content is not available in the selected language.

Que devons-nous faire pour rendre le fruit de l’intelligence artificielle non discriminatoire et équitable?

Faites le test. Prononcez l’expression « intelligence artificielle » lors de votre prochain cocktail et mesurez l’effet sur vos collègues. Certains seront ravis de vous entendre évoquer cette expression à la mode. D’autres seront paniqués par ces perspectives nouvelles.

Mais bien peu se rendront au-delà de cette première réaction. Surtout, dans le domaine juridique. Or, les avocats devraient s’intéresser le plus rapidement possible à cette réalité. Ce faisant, ils auront une vague impression de déjà-vu.

Car le milieu de l’intelligence artificielle se questionne. Maintenant que la technologie avance à pas de géants, plusieurs problèmes éthiques se posent. On souhaite que les algorithmes ne produisent pas de résultats injustes. Et pour l’instant, on semble considérer qu’il suffit de traiter tous les éléments de la même façon pour qu’ils produisent des résultats égaux.

Mais, pour Doaa Abu Elyounes, candidate au doctorat à la faculté de droit de l’Université Harvard, cette idée d’équité fondée sur la simple égalité ne suffit pas. C’est ce que l’on a appelé l’approche « Colorblind », en anglais, et elle a trop souvent atteint ses limites.

Dans quelle direction devrions-nous nous tourner? Selon Mme Elyounes, qui s’exprimait dans le cadre du Graduate Law and Artificial Conference du laboratoire de Cyberjustice de l’Université de Montréal le mois dernier, on doit insister sur l’importance du contexte. Autrement dit, il faut absolument adopter une notion d’équité qui tient pour acquis que deux personnes doivent parfois être traitées différemment pour que l’égalité soit atteinte. En matière d’intelligence artificielle, cette « équité » peut s’incarner de multiples façons.

Imaginons que vous créez un système qui détermine les candidats les mieux en mesure d’obtenir du succès dans un poste de gestion. Votre algorithme devra considérer une multitude de paramètres.

Pour être équitable, vous pourriez choisir de bâtir deux systèmes différents, l’un pour les hommes, l’autre pour les femmes. Chaque système disposerait de son propre algorithme qui tiendrait compte d’une liste différente de facteurs de prévision de réussite.

Vous pourriez aussi procéder en vous assurant que l’algorithme vous donne, à tous les coups, 30 % de candidatures féminines, ce qui correspondrait au 30 % de femmes gestionnaires dans la société en général.

Une autre option est de faire en sorte que toute femme qui dispose des qualifications professionnelles se retrouve automatiquement dans le bassin de candidats, sans égards aux paramètres de réussite. Selon cette approche, « si je suis une femme et que je me qualifie pour un poste, je dois y avoir droit », commente Mme Elyounes. Ou vous pourriez égaliser de façon externe les résultats produits par l’algorithme pour qu’ils correspondent au résultat voulu, soit promouvoir plus de femmes, en vous assurant que 80 % des résultats obtenus correspondent à une candidature féminine. « Mais, là, tout dépendra des valeurs que vous voudrez mettre de l’avant », ajoute-t-elle.

Avec cet exemple, on voit immédiatement que chaque façon de faire a ses défauts. Qu’en serait-il de l’acceptabilité sociale d’un système qui créerait deux groupes distincts en fonction de l’appartenance culturelle? Ou que dire de la prise en compte des codes postaux de quartiers moins nantis? Risque-t-on de renvoyer une image de « séparés, mais égaux » qui hantent encore nos sociétés?

Vaudrait-il alors mieux accepter l’intelligence artificielle comme un phénomène totalement nouveau et le laisser croître de lui-même, de façon tout à fait autonome et organique? Pour Mme Elyounes, cela est hors de question. Elle propose plutôt de commencer la réflexion à l’envers, c’est-à-dire, de se demander quels sont les objectifs poursuivis par l’algorithme que l’on souhaite utiliser. Sa confection produira un résultat plus équitable par la suite.

Par exemple, les designs d’un programme de pointage de crédit et d’un programme d’évaluation des risques de récidives criminelles ne seront pas les mêmes. Un individu associé injustement à un score de crédit positif ne subira pas un grand préjudice, alors celui qui se verra affecter un taux de récidive criminelle élevé verra sa vie changer à jamais, avance-t-elle. Par conséquent, notre société sera peut-être plus disposée à accepter qu’un algorithme distingue deux groupes selon des caractéristiques potentiellement sensibles, dans le cas d’un programme d’évaluation de récidive, qu’elle ne le sera pour un pointage de crédit. « La plupart des modèles de mise en valeur de l’équité sont adéquats, mais tout dépend de l’utilisation que l’on en fait », soutient Mme Elyounes.

Cela suffira-t-il à rendre le fruit de l’intelligence artificielle non discriminatoire et équitable? Une chose est sûre, il n’y aura pas de magie. Si on ne met pas en valeur les enseignements du passé, les algorithmes nous offriront les résultats que l’on mérite. Et on doit rapidement se mettre au travail.

 

This content has been updated on 14 March 2019 at 15 h 16 min.