Marc G. Bellemarre, chercheur senior chez Google Brain et professeur associé de l’Université McGill, Pierre-Luc Déziel, professeur adjoint à la faculté de droit de l’Université Laval, François Laviolette, directeur du Centre de recherche en données massives de l’Université Laval, Lyse Langlois, directrice générale de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique de l’Université Laval, et Vincent Bergeron, associé, avocat et agent de marques de commerce chez ROBIC

Rendez-vous IA

Une IA responsable et éthique: L’importance de l’élaboration d’une charte éthique

L’intelligence artificielle (IA) et le numérique révolutionnent nos modes d’action et pourraient bouleverser nos repères éthiques, déjà parfois bien fragiles. À titre d’exemple, l’IA programmée dans la voiture autonome pose des questions morales impossibles à résoudre même pour un être humain: en cas de défaillance de ma voiture, est-ce que je choisirais de tuer deux enfants ou trois personnes âgées, si ceux-ci venaient à croiser ma trajectoire? Une question pertinente soulevée par François Laviolette, directeur du Centre de recherche en données massives de l’Université Laval, lors du panel IA responsable et éthique réunissant cinq intervenants lors du Rendez-vous IA Québec.

Les exemples de dérives ne manquent pas. Dans les années 90, il y eut une prise de conscience essentielle, notamment une réflexion sur la génétique voulant que personne ne fabrique d’enfants, afin que l’humain soit ainsi respecté. Pourtant, poursuit M. Laviolette, cela vient de se produire en Chine. Les dirigeants de ce pays procèdent de plus actuellement à un programme
de reconnaissance faciale de ses citoyens qui donne des cotes à ces derniers dépendamment de leur comportement, et ce, dans des lieux comme des centres commerciaux. Un système de récompense allié à des mesures restrictives et de dépistage de maladies a été instauré à partir de cette reconnaissance faciale. 

Lyse Langlois, directrice générale de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique de l’Université Laval, mentionne toute l’Importance d’une charte éthique à établir, d’en tester les principes, de les mettre à l’épreuve, de les institutionnaliser et, surtout, de ne pas la garder rigide, figée. «Il faudra amorcer une réflexion avec tous les partenaires et en arriver par la suite à une norme particulière basée sur une collaboration entre les entreprises et les organisations pour travailler des certifications éthiques nécessaires.» 

Pierre-Luc Déziel, professeur adjoint à la faculté de droit de l’Université Laval, soulève que dans le cadre de cette démarche, la société est également confrontée au système de justice. L’in­telligence artificielle pourrait prédire ce que le juge va décider à partir de la jurisprudence en regard de l’ensemble des décisions de celui-ci. Cependant, en regardant l’ensemble de ces décisions, nous pourrions voir des biais émerger de celles-ci. Que faisons-nous alors pour les corriger en enlevant les décisions biaisées? demande M. Déziel. 

Marc G. Bellemarre, chercheur senior chez Google Brain et professeur associé de l’Université McGill, parle de l’importance du dialogue à entreprendre avec le secteur de l’entreprise privée, dont la quête du profit pourrait être en opposition avec l’éthique à bâtir concernant l’IA. Il parle notamment d’impacts à longs termes. 

Pour M. Laviolette, il sera aussi très important de décider comment valider les données. La notion d’équité s’impose aussi. «Il demeure également évident que nous serons toujours plus exigeants face aux erreurs de l’intelligence artificielle que pour l’erreur humaine.»

Pour l’animateur du panel, Vincent Bergeron, associé, avocat et agent de marques de commerce chez ROBIC, nous sommes, dans le moment présent, dans la régu­lation sur ce qui était acceptable. Il reste encore beaucoup à faire.