Retour à Histoires
HISTOIRES

Loi sur l'IA : les systèmes d'IA à haut risque doivent être plus nuancés

09 septembre 2022
Loi sur l'IA : les systèmes d'IA à haut risque doivent être plus nuancés

L'UER soutient les objectifs de la loi sur l'intelligence artificielle (IA). L'approche fondée sur le risque adoptée par la Commission européenne et les niveaux d'obligations gradués semblent bien adaptés pour réglementer un domaine aussi complexe.

Les médias de service public (MSP) utilisent des systèmes d’IA pour distribuer des informations et des services à leurs utilisateurs et utilisatrices. Dans le cadre du projet Vu d’Europe, les Membres de l'UER utilisent des outils de recommandation et de traduction basés sur l'IA (Peach et EuroVox) pour fournir des sujets d’actualité en temps réel, sans considération de frontière et dans la langue de chaque pays participant. C’est un exemple de l'utilisation innovante de l'IA par les MSP.

Dans le cadre de la loi sur l'IA, l'UER et ses Membres ont identifié des sujets de préoccupation qui concernent les systèmes d'IA à haut risque. Le vaste champ d'application de cette catégorie pourrait en effet menacer l'utilisation légitime des systèmes d'IA dans le secteur des médias. Plus précisément, leurs inquiétudes sont les suivantes :

  1. Les systèmes d'IA destinés à produire des textes complexes ou à générer ou manipuler des images ou des contenus audio ou vidéo ne doivent pas être classés par défaut comme étant à haut risque Dans le cas des médias de service public, ces systèmes sont passés au crible par des rédacteur.rice.s, qui assument également la responsabilité du résultat.
  2. Il est risqué de classer systématiquement « à haut risque » tous les systèmes d'IA destinés à être utilisés pour la catégorisation et l'identification biométrique des personnes physiques Cette classification risque en effet d’intégrer à cette catégorie des systèmes d'IA anodins, conçus ou utilisés par des organismes de médias, ce qui pourrait constituer un fardeau pour certains systèmes.
  3. La protection du droit à la liberté d'expression et du droit à la liberté des arts et des sciences doit être maintenue et précisée. L’IA étant utilisée dans de nombreuses productions audiovisuelles aux fins d’effets spéciaux, l'application des règles de transparence doit être suffisamment souple pour ne pas nuire à « l'expérience utilisateur ». Le règlement doit tenir compte du large éventail de situations possibles, par exemple le fait que les téléspectateur.rice.s peuvent commencer à visionner un contenu audiovisuel à mi-chemin (ce qui complique l'identification de la première interaction ou exposition).

Liens et documents pertinents

Contact

Prenez contact. Nous sommes là pour vous aider.