Au sein des entreprises technologiques du monde entier, les ingénieurs et scientifiques cherchent à développer en premier le prochain produit d’IA. Or, dans cette ruée, les enjeux en matière d’équité et d’éventuels préjudices socioculturels sont souvent relégués à l’arrière-plan, voire ignorés.
Selon Lai-Tze Fan, de l’Université de Waterloo (en anglais seulement), si on ne se pose pas les bonnes questions dès l’étape de la conception, par exemple « À qui cela profite-t-il? »; « Quel groupe n’y est pas représenté? » et « Est-ce que cela peut nuire à quelqu’un? », le produit risque de véhiculer des préjugés.
C’est pourquoi la chercheuse a fondé le laboratoire U&AI (où le « U » désigne à la fois les utilisateurs et utilisatrices de l’IA et ce qui est usurpé par la technologie). « Toute l’équipe du laboratoire se penche sur la question de l’égalité de l’expérience et de la conception, afin que les utilisatrices et utilisateurs finaux tirent parti de l’IA de la manière la plus équitable possible », explique Lai-Tze Fan qui est titulaire de la chaire de recherche du Canada sur les technologies et le changement social.
Ses quatre stagiaires ont une formation en sociologie, en droit, en anglais et en ingénierie d’étude de systèmes. La chercheuse détient pour sa part un doctorat interdisciplinaire en communication et culture, des diplômes en littérature et une expérience en matière de développement d’applications à titre de boursière postdoctorale.
Dans le cadre de cette collaboration, l’équipe utilise des ordinateurs puissants, des caméras spécialisées et divers équipements financés par la FCI pour étudier l’intelligence artificielle responsable et trouver des moyens d’intégrer les principes d’équité, de diversité et d’inclusion dès la conception des technologies de l’IA.
Mettre au jour les préjugés de l’IA et d’autres préjudices cachés
Prenons à titre d’exemple la technologie de la reconnaissance faciale qui, selon la chercheuse, s’accompagne d’un éventail de préjugés et soulève de nombreux enjeux. En effet, certains appareils photo ne sont pas conçus pour photographier des visages à la peau foncée, ce qui complique l’analyse des images par logiciel. Des algorithmes sont aussi formés à partir d’ensembles de données biaisés, ce qui se traduit par des logiciels plus susceptibles d’identifier à tort certains groupes de personnes. Qui plus est, des ensembles de données photographiques, y compris des photos d’enfants, sont parfois récupérés sur les médias sociaux, et ce, sans consentement.
« Est-il possible de veiller à ce que ces technologies tiennent compte de la diversité raciale? Oui, tout à fait », affirme Lai-Tze Fan. Mais comme les données d’apprentissage peuvent être recueillies sans le consentement de la personne concernée, elle s’interroge : « Comment peut-on y parvenir de manière éthique? Il s’agit d’une question à laquelle nous n’avons pas encore de réponse, mais sur laquelle je me penche actuellement. »
La chercheuse étudie également les enjeux liés au genre en ce qui concerne les outils d’assistance d’IA fondés sur la reconnaissance vocale, tels que Siri et Alexa, qui nous aident à planifier nos rendez-vous, nous envoient des rappels et commandent nos épiceries en ligne. Est-ce qu’en donnant à ces outils des noms et des voix de femmes, on renforce les stéréotypes, se demande-t-elle?
Elle s’interroge également sur la nature des comportements qu’ils peuvent encourager. Le fait d’injurier Alexa parce qu’elle n'a pas compris une commande se répercutera-t-il sur le plan des interactions humaines la prochaine fois qu’on vous servira un café qui n’est pas celui que vous avez commandé?
« Cela constitue un étrange apprentissage des bases de la socialisation, car les règles de courtoisie ne sont pas les mêmes avec l’IA qu’avec un être humain », explique la chercheuse.
Enfin, son laboratoire étudie les conséquences environnementales souvent insoupçonnées de l’IA. En effet, afin d’analyser des millions de points de données en un claquement de doigts, il faut disposer d’une puissance de calcul colossale. Et comme les technologies d’IA se multiplient, il faudra de plus en plus de parcs de serveurs énergivores et de matériel de pointe pour les exploiter.
Multiplier les perspectives pour concevoir de meilleures technologies
Les travaux de Lai-Tze Fan ne consistent pas uniquement à mettre en lumière ce qui pose problème. À terme, ils visent aussi à créer des trousses à outils pour concevoir des logiciels équitables utilisés dans les assistants d’IA et des ressources susceptibles de soutenir les personnes qui les développent dans la mise au point de systèmes de reconnaissance faciale diversifiés sur le plan racial.
La chercheuse aimerait également avoir l’occasion de rencontrer des entreprises qui souhaitent intégrer l’équité, la responsabilité, la transparence et l’éthique à leur processus de conception. « J’espère que nous pourrons trouver un moyen de collaborer, précise-t-elle. C’est ainsi que nous pourrons faire évoluer les choses. »
Grâce à l’infrastructure financée par la FCI, nous avons mis en place des approches critiques et créatives essentielles vis-à-vis des technologies de l’IA. Celles-ci offrent une diversité de points de vue socioculturels sur des enjeux liés à l’IA tels que les préjugés raciaux et sexistes. »
– Lai-Tze Fan, Université de Waterloo
Le projet de recherche présenté dans cet article est également financé par le Programme des chaires de recherche du Canada et le Conseil de recherches en sciences humaines.