Réglementation de l’intelligence artificielle et du contenu sexuellement explicite

Main Image
Image
a graphic with blue and gold geo-shapes
Partager

Monsieur le Ministre Solomon,

Nous vous écrivons aujourd’hui pour vous faire part de notre profonde inquiétude face à la prolifération de contenus sexuellement explicites générés par l’intelligence artificielle, en particulier par le biais d’outils comme Grok de xAI.

La violence sexiste facilitée par la technologie étant en hausse, l’utilisation récente de Grok pour générer des images non consensuelles de femmes et d’enfants n’est pas simplement un bogue ou un problème de « mauvais utilisateurs » : il s’agit d’un préjudice prévisible imprégné dans le système et qui s’intensifiera si le gouvernement maintient le statu quo.

Bien que le Commissariat à la protection de la vie privée ait pris les mesures qui s’imposent en élargissant son enquête sur X Corp et xAI, la réponse réglementaire actuelle du Canada ne prévoit pas de garde-fous cruciaux. Alors que l’Union européenne, le Royaume-Uni et le Brésil ont adopté une approche imposant l’application stricte de la loi et des amendes colossales, le cadre juridique fragilisé du Canada privilégie les intérêts des géants de la technologie au détriment de la sécurité des personnes.

Vide juridique actuel

Dans les cas de violence sexiste facilitée par la technologie, la technologie devient un outil nuisible utilisé pour contrôler et intimider, et l’intelligence artificielle intensifie cette forme de violence. Du cyberharcèlement aux hypertrucages à caractère sexuel, ces outils sont utilisés pour cibler les femmes, les filles, les personnes issues de la communauté 2ELGBTQIA+ et les ressources professionnelles en contact avec le public. Malgré cet enjeu, le Canada ne dispose pas d’une législation globale pour réglementer les modèles d’intelligence artificielle. Les lois sur la protection de la vie privée ayant été rédigées avant l’essor des médias sociaux, les victimes n’ont guère d’autre recours que de signaler les incidents à la police, qui se heurte souvent à des enjeux de compétence, ou de déposer une plainte directement auprès des entreprises mêmes qui facilitent ces abus.

Recommandations pour la législation en préparation

Alors que le gouvernement fédéral étudie la Loi sur les préjudices en ligne (projet de loi C-16) et la vérification obligatoire de l’âge (projet de loi S-209), nous exhortons le gouvernement à y intégrer les mesures de protection suivantes.

Cadres législatifs et pénaux stricts

  • Criminaliser les hypertrucages non consensuels : Nous soutenons la modification prompte du Code criminel afin de qualifier d’infraction criminelle la création et la distribution d’images hypertruquées.

  • Renforcer la Loi sur les préjudices en ligne  Il est urgent d’adopter une législation exhaustive en matière de sécurité qui impose un délai de 24 heures pour retirer tout contenu sexuel non consensuel et oblige les plateformes à publier des rapports publics sur les types de contenus préjudiciables que leurs outils permettent de produire, garantissant ainsi une transparence totale quant aux protocoles de sécurité qui ont été déclenchés et à ceux qui ont échoué.

Responsabilité des développeurs d’intelligence artificielle et des plateformes

  • Intégrer des mécanismes de sécurité dans la conception : La législation doit obliger les plateformes à mettre en œuvre des mécanismes de sécurité avant le déploiement afin de garantir qu’elles ne produiront pas du contenu à caractère sexuel dangereux, violent ou non consensuel. Cette législation devrait inclure des vérifications algorithmiques permettant au gouvernement d’examiner les rapports sur les protocoles de sécurité avant et après le déploiement.

  • Imposer la responsabilisation et des sanctions : Des mesures vigoureuses et des sanctions financières sévères doivent être prévues en cas de non-respect, à l’instar de la loi sur les services numériques de l’Union européenne, afin de garantir que les entreprises technologiques sont tenues responsables des outils dont elles tirent profit. Des vérifications obligatoires des pratiques des entreprises et la production de rapports de transparence renforceront cette responsabilité.

  • Mettre fin au discours sur les « mauvais utilisateurs » : Il est nécessaire de faire porter aux plateformes la responsabilité des préjudices prévisibles du système comme étant un échec du développeur, plutôt que de viser des personnes individuellement.

Confidentialité des données et droits des survivantes

  • Respecter le droit à l’effacement : Nous soutenons la législation à venir sur la protection de la vie privée, qui accorde aux utilisatrices et utilisateurs le droit légal d’exiger que les renseignements personnels utilisés pour entraîner les modèles d’intelligence artificielle soient immédiatement supprimés, en particulier lorsqu’ils sont utilisés pour créer du contenu à caractère sexuel.

  • Établir des cadres axés sur le consentement : Il est primordial d’harmoniser les lois fédérales sur la protection de la vie privée (Loi sur la protection des renseignements personnels et les documents électroniques) afin de garantir que l’utilisation de renseignements personnels pour l’entraînement de l’intelligence artificielle nécessite un consentement explicite et valide.

Soutien aux survivantes et aux groupes de défense

  • Offrir un soutien centré sur les survivantes Le financement fédéral doit cibler des interventions tenant compte des traumatismes et un soutien spécialisé pour les survivantes de la violence sexiste facilitée par la technologie.

  • Offrir du soutien aux organisations communautaires, y compris les organisations qui viennent en aide aux femmes et qui font déjà ce travail : Un financement et un soutien directs doivent être offerts aux organisations en première ligne de la lutte contre la violence sexiste facilitée par la technologie. Il est nécessaire de sensibiliser à l’intelligence artificielle afin de bien comprendre son fonctionnement et les préjudices qu’elle cause pour garantir la transparence.

Le Programme d’action de Beijing a établi une norme mondiale en matière de sécurité des femmes que nous ne pouvons pas nous permettre de rejeter à l’ère du numérique d’aujourd’hui. Il est temps que le Canada passe à l’action en adoptant une législation stricte et en mettant en œuvre un cadre de sécurité systémique qui traite de la violence sexiste comme un enjeu de sécurité fondamental.

Nous sommes impatients de discuter de la manière dont le gouvernement soutiendra l’élaboration d’un cadre de sécurité strict en matière d’intelligence artificielle qui protège l’ensemble des travailleuses et travailleurs et leur famille contre la violence numérique.

Cordialement,

Association canadienne contre la violence sexuelle Battered Women’s Support Services
Centre canadien pour l’autonomisation des femmes
Conseil canadien des femmes musulmanes
DAWN Canada
Fédération des femmes du Québec
Fonds d’action et d’éducation juridiques pour les femmes
Hébergement femmes Canada
Unifor Canada
WomenatthecentrE
Hébergement femmes Canada
YWCA Canada