Aller au contenu principal

Remettre l’intelligence artificielle dans le droit chemin

Image : Shutterstock

2019-05-17

Des biais discriminatoires à la collecte de renseignements personnels, l’intelligence artificielle est loin d’être neutre. Comment veiller à ce que les robots respectent nos droits fondamentaux?

Vous êtes-vous déjà prêté au jeu Art Selfie de Google? Réalisez un égoportrait et le système de reconnaissance faciale vous renvoie à votre sosie artistique parmi les tableaux exposés dans différents musées du monde. En janvier 2018, le concept a conquis les internautes, et l’application Google Arts & Culture a battu des sommets de téléchargement. Mais rapide­ment, des femmes se sont plaintes d’être associées à des portraits d’hommes et des Afro-Américains n’ont pas aimé être comparés à des esclaves. Une faille de la reconnaissance faciale ou un algorithme misogyne et raciste?

Sachant que les machines capables de simuler une intelligence sont de plus en plus utilisées dans des ministères, des banques et des entreprises, ces biais discriminatoires pourraient avoir des consé­quences importantes sur nos vies. Les algorithmes d’apprentissage nous seront-ils nuisibles au final? Voilà qui intéresse des chercheurs d’ici, comme en témoigne le lancement récent de l’Observatoire in­ternational sur les impacts sociétaux de l’intelligence artificielle et du numérique (OIISIAN), qui réunit plus de 160 scientifiques québécois.

Il faut savoir qu’un algorithme agit comme une petite boîte noire qui transforme des données en décisions. Il s’appuie généralement sur des informations passées, ce qui signifie qu’il peut facilement reproduire un schéma d’iniquité si celui-ci est originairement présent dans la base de données. « On parle de biais algorithmiques, mais le pauvre et malheureux algorithme n’y est pas pour grand-chose ! Si on lui donne des informations biaisées, il ne faut pas s’étonner que les décisions qu’il prenne le soient aussi », déclare d’emblée Marie-Jean Meurs, professeure au Département d'informatique de l'Université du Québec à Montréal (UQAM). Elle est également cofondatrice du réseau HumanIA, qui propose une réflexion multidisciplinaire sur les enjeux éthiques et sociaux de l’intelligence artificielle (IA).

Dans le cas d’Art Selfie de l’application Google, la base de données de référence, soit les tableaux recensés, manquait de diversité et ne représentait pas l’ensemble des utilisa­teurs. « C’est comme si vous appreniez une langue avec pour seul vocabulaire celui de la cuisine, alors qu’on vous demande de parler d’histoire », illustre Mme Meurs. Si la majorité des portraits de personnes noires auxquels l’IA avait accès étaient des esclaves, confor­mément aux peintures des siècles passés, il est normal que l’algorithme s’en soit contenté.

Au-delà de ce cas divertissant, les banques de données incomplètes peuvent provoquer des injustices. Allons-y d’un exemple type utilisé par le professeur de l’École nationale d’administration publique (ENAP) Pier-André Bouchard St-Amant, membre de l’OIISIAN. Un algorithme apprend à déterminer parmi divers restaurants montréalais lesquels de­vront se soumettre à un contrôle sanitaire. Pour ce faire, on attribue au robot une base de données composée des plaintes déposées pour intoxications alimentaires.

Le problème est le suivant : est-ce que les personnes à faible revenu portent autant plainte que celles qui sont plus aisées? Si l’algorithme travaille essentiellement à partir des données sur les restaurants « chics », ces établissements seront probablement davantage ciblés par les autorités sanitaires. De leur côté, les commerces plus modestes subiront moins de contrôles. La santé des consommateurs moins fortunés en pâtirait-elle?

Données à vendre

Chaque individu laisse quantité de traces numériques derrière lui. Pensons aux cartes de fidélité, aux commentaires formulés sur Facebook ou aux recherches sur le moteur Google. Toutes ces données peuvent être épluchées par des robots et être vendues à des publicitaires ou à des compagnies d’assurances. « À partir du moment où les données sont vues comme un objet privé, les droits de propriété entrent en jeu et elles deviennent “marchandisables” », explique M. Bouchard St-Amant. Ainsi, en avril 2018, des médias ont révélé que les renseignements personnels de 87 millions d’utilisateurs de Facebook avaient été exploités par la firme Cambridge Analytica pour influencer les électeurs pendant la campagne présidentielle américaine de 2016. Est-ce aux entreprises de prendre plus de précautions et de s’assurer que leurs algorithmes offrent un traitement équitable aux individus? Ces enjeux doivent être pris en compte dans la conception même des prototypes, selon Pier-André Bouchard St-Amant. « Un travail doit être fait en amont pour codifier les contraintes éthiques dans les algorithmes, mais il faut aussi veiller à ce que les décisions prises à la sortie respectent les droits fondamentaux. » Reste à voir si ces vérifications éthiques seront une priorité pour Google, Apple, Facebook, Amazon et Microsoft, qui détiennent le quasi-monopole de l’intelligence artificielle.

Entre-temps, certains explorent les voies législatives. En 2016, le Parlement européen a adopté un règlement sur la protection des données personnelles. Tout individu sur le territoire européen peut désormais avoir accès à son « dossier » de renseignements personnels, les modifier et s’opposer à leur utilisation. La Californie lui a emboîté le pas : une loi similaire y sera appliquée dès 2020.

Qu’en est-il chez nous? « Au Canada et au Québec, dans la course effrénée à l’innovation, les gouvernements deviennent eux-mêmes des promoteurs de la technologie », déplore Jonathan Roberge, sociologue au Centre Urbanisation Culture Société de l'Institut natio­nal de la recherche scientifique (INRS). Plus de 230 millions de dollars seront injectés par le fédéral pour soutenir les innovations et favori­ser l’adoption des technologies d’intelligence artificielle au cours des 10 prochaines années, tandis que le provincial allouera 60 millions de dollars. L’essentiel des investissements seront faits à Montréal.

Cela étant dit, une réflexion éthique impor­tante a débouché récemment sur la publica­tion de la Déclaration de Montréal, dont les 10 principes encadreront le développement responsable de l’intelligence artificielle.

On y stipule notamment que la vie privée de chacun doit être protégée de l’intrusion des systèmes d’IA et que les personnes engagées dans leur développement doivent anticiper les éventuelles conséquences néfastes.

Jonathan Roberge doute toutefois que les signataires respectent les principes adoptés, qui relèvent de l’utopisme et manquent de fondement scientifique. « Pour que l’intelligence artificielle profite à tous, les chercheurs de tous les domaines devraient travailler conjointement afin de brosser un tableau réel de ces enjeux », soutient Marie-Jean Meurs.

Une vision pluridisciplinaire est également nécessaire pour bien communiquer les intentions des scientifiques et ainsi ménager l’acceptabilité sociale. Un système aura beau être technique­ment bien programmé et conforme au droit, si la population est réfractaire aux changements, la réforme sera vouée à l’échec, selon Pier-André Bouchard St-Amant. Il cite l’exemple de Boston, qui a voulu optimiser les horaires des autobus scolaires grâce à l’intelli­gence artificielle ; le résultat a déplu aux parents, contraints de changer leur emploi du temps. « C’est comme une réforme fiscale : si l’on imposait à certaines personnes de payer plus et à d’autres de payer moins, la réponse automatique serait “pourquoi?” Il faut expliquer aux gens le principe et les critères employés pour pouvoir justifier la transformation. »

Marie-Jean Meurs ajoute que les débats éthiques sur l’intelligence artificielle doivent être bien circonscrits. « Qu’on réfléchisse à des dilemmes du genre “Est-ce qu’il vaudrait mieux qu’une voiture auto­nome en perte de contrôle écrase une mamie ou une jeune maman avec sa poussette” n’a pas de sens! Si elle tue quelqu’un, c’est que ses capteurs ne fonctionnent pas. Alors peu importe qui est devant, elle ne le verra pas! »

S’il faut demeurer prudent face au développement technologique, Pier-André Bouchard St-Amant reste tout de même confiant en « notre capacité à débrancher la prise électrique si cela va trop mal ». « On ne se sait pas où l’on s’en va avec l’IA, mais il ne faut pas s’interdire d’ex­périmenter parce qu’on a peur, mentionne-t-il. L’intelligence artificielle nous a énormément apporté, ne serait-ce que dans le domaine de la santé. On va peut-être devoir apprendre de nos erreurs, mais on va apprendre quand même. »

Télécharger l'article >>>

Source :
Chloé Dioré de Périgny
La recherche dans le réseau
de l'Université du Québec
Québec Science
Avril-mai 2019, p. 14-16

Copyright © 2015  –  Université du Québec  –  Tous droits réservés  –  

Mise à jour: 30 mars 2023