Nous joindre
X
Rechercher
Publicité

Rapport de l'Université d'Ottawa

Des experts réclament des balises pour encadrer le recours à l'IA en politique

durée 18h00
1 février 2024
ici

commentaires

ici

likes

 

vues

imprimante
email
Par La Presse Canadienne

Une femme vêtue d’une chemise gris-marron est assise à côté d’un homme, comme si elle écoutait attentivement quelqu’un hors du cadre. Elle a les bras croisés sur une table – mais aussi un troisième bras qui soutient son menton...

Des électeurs y ont regardé à deux fois en parcourant le programme d'un candidat à la mairie de Toronto, l'été dernier, et en voyant l'image de cette mystérieuse «femme à trois bras».

Il était évident que l'entourage d'Anthony Furey avait utilisé l'intelligence artificielle (IA) – et il l'a confirmé plus tard. L'incident constitue un exemple très médiatisé de la façon dont l’IA a fait son entrée dans la politique canadienne.

Mais cet usage peut aussi être exploité de manière beaucoup plus subtile. Sans aucune règle en place, le citoyen ne saura pas dans quelle mesure l'IA est utilisée, déclare la coauteure d'un nouveau rapport sur «les utilisations politiques de l'IA au Canada».

«Nous n'en sommes qu'aux débuts, et nous sommes encore dans cette période étrange où il n'y a pas de règles sur la divulgation de l'IA, et il n'y a pas encore de normes sur la divulgation des utilisations de l'IA générative», déclare Elizabeth Dubois, professeure agrégée au département de communication de l'Université d'Ottawa. «On ne sait pas forcément tout ce qui se passe.»

Dans un rapport publié mercredi, Mme Dubois décrit les façons dont l'IA est utilisée au Canada et aux États-Unis – pour les sondages, la prévision des résultats des élections, la préparation de stratégies de lobbying et la détection de publications abusives sur les réseaux sociaux pendant les campagnes.

L'IA générative, une technologie permettant de créer du texte, des images et des vidéos, s'est généralisée avec le lancement de ChatGPT d'OpenAI à la fin de 2022.

De nombreux Canadiens utilisent déjà la technologie dans leur vie quotidienne, et elle est également utilisée pour créer du contenu politique, comme du matériel de campagne. Aux États-Unis l’année dernière, le Parti républicain a publié sa première publicité d’attaque générée par l’IA — «un montage photographique d’images synthétiques accompagnées de clips audio imitant des bulletins d’information», lit-on dans le rapport.

Il est parfois évident que l’IA a été utilisée, comme dans le cas de la «femme à trois bras». Lorsque le Parti de l'Alberta a partagé en ligne une vidéo de soutien d'un citoyen en janvier 2023, les gens sur les réseaux sociaux ont rapidement souligné que ce n'était pas une personne réelle, indique le rapport. La vidéo a été supprimée.

Mais le recours à l'IA peut être difficile à identifier si le contenu semble réel, souligne la professeure Dubois. L'absence de règles et de normes établies sur l'utilisation et la divulgation de l'IA constitue un «réel problème», dit-elle. «Si on ne sait pas ce qui se passe, alors on ne peut pas garantir que ça se produira d'une manière qui soutienne des élections équitables et des démocraties fortes, n'est-ce pas?»

Dangereux hypertrucage

Nestor Maslej, directeur de recherche à l'Institut pour l'intelligence artificielle centrée sur l'humain de l'Université de Stanford, convient qu'il s'agit d'une «préoccupation tout à fait valable».

L’IA pourrait notamment nuire réellement aux élections en utilisant l'hypertrucage. Ces fausses vidéos existent depuis des années. M. Maslej cite des exemples très médiatisés de fausses vidéos de l'ex-président américain Barack Obama tenant des propos désobligeants, ainsi qu'une fausse vidéo du président ukrainien Volodymyr Zelensky qui se rend aux Russes.

Ces exemples «se sont produits dans le passé, lorsque la technologie n’était pas aussi bonne et aussi performante, mais la technologie ne fera que continuer à s’améliorer», rappelle le professeur Maslej.

Le chercheur souligne que les nouvelles versions de l’IA générative rendent plus difficile encore la détection des images ou des vidéos fausses. Il existe également des preuves que les humains ont du mal à identifier les sons générés de manière synthétique, note-t-il.

Cela ne veut pas dire que l'IA ne peut pas être utilisée de manière responsable, souligne M. Maslej, mais elle peut également être utilisée dans des campagnes électorales à des fins malveillantes. Les recherches montrent qu’«il est relativement facile et peu coûteux de mettre en place des pipelines de désinformation liés à l’IA», dit-il.

Tous les électeurs ne sont pas également vulnérables. Les personnes qui ne sont pas aussi familières avec ces types de technologies pourraient être «beaucoup plus susceptibles d'être confuses et de prendre pour réel quelque chose qui est en fait faux», note M. Maslej.

Une façon de mettre en place des garde-fous consiste à intégrer des «filigranes» pour rendre le contenu de l’IA plus identifiable, dit-il.

Quelle que soit la solution retenue par les décideurs politiques, «le moment est venu d’agir», insiste M. Maslej. «Il me semble que l'ambiance politique canadienne est parfois devenue un peu plus clivante et conflictuelle, mais on pourrait espérer que tous les intervenants comprennent toujours que quelque chose comme la désinformation sur l'IA peut créer une atmosphère pire pour tout le monde.

«Si nous attendons qu'il y ait, je ne sais pas, une sorte d'hypertrucage du (premier ministre Justin) Trudeau qui ferait perdre les élections aux libéraux, alors je pense que nous allons ouvrir une très vilaine boîte de Pandore politique.»

Certaines utilisations malveillantes de l’IA sont déjà couvertes par la loi en vigueur au Canada, souligne la professeure Dubois. L’utilisation de vidéos hypertruquées pour usurper l’identité d’un candidat, par exemple, est déjà illégale en vertu de la loi électorale actuelle.

«D'un autre côté, il existe des utilisations potentielles qui sont nouvelles ou qui n'entrent pas clairement dans les limites des règles existantes, dit-elle. Et là, il faut vraiment que ce soit une sorte de cas par cas, dans un premier temps, jusqu'à ce que nous trouvions les limites de la manière dont ces outils pourraient être utilisés.»

Anja Karadeglija, La Presse Canadienne

commentairesCommentaires

0

Pour partager votre opinion vous devez être connecté.

RECOMMANDÉS POUR VOUS


durée Hier 12h00

Christian Dubé promet de «sevrer graduellement» le réseau de la santé du privé

Le ministre de la Santé, Christian Dubé, a promis mardi de freiner l'expansion du privé en santé en visant le «sevrage». Il a fait savoir que 3 % des médecins au Québec pratiquent au privé, parfois de façon sporadique, et qu'il n'était pas trop tard pour inverser la tendance. M. Dubé a tenu ces propos au Salon rouge dans le cadre d'une ...

1 novembre 2024

La Cour fédérale est appelée à forcer la traduction des décisions de la Cour suprême

Devant le refus de la Cour suprême de traduire en français ses jugements unilingues anglais écrits avant 1969, et ce, malgré les recommandations sans équivoque du Commissaire aux langues officielles, l’organisme Droits collectifs Québec (DCQ) amène le plus haut tribunal en Cour fédérale. La Cour suprême elle-même est protégée contre ce genre de ...

31 octobre 2024

Le gouvernement Legault met un frein à l'immigration permanente

Après avoir augmenté les seuils d’immigrants permanents, le gouvernement Legault veut maintenant en limiter le nombre en 2025. Pour ce faire, il va geler deux programmes permettant d’obtenir la résidence permanente. Il s’agit du Programme régulier des travailleurs qualifiés et du Programme de l’expérience québécoise (PEQ) dans le volet ...