CONNEXION

  • Abonnement
  • Publicité
  • Contact
  • Guide industrie
  • Vidéos
  • Podcasts
  • magazine CONVERGENCE
  • Boutique
  • Numérique
  • Jeux Vidéo
  • Mobile
  • Animation
  • Informatique
  • Arts Médiatiques
  • Marketing
  • Musique
  • Industrie
  • Réalité virtuelle
  • Intelligence artificielle
  • Startups
  • Artisans du numérique
  • Conseils d’experts
  • Exclusifs
  • SUIVEZ-NOUS

    RSS

    RECEVEZ GRATUITEMENT
    LE BULLETIN QUOTIDIEN [voir un exemple]

    L’Europe se dote d’une législation sur l’intelligence artificielle Drapeau de l'Union Européenne. Photo: Grégory ROOSE via Pixabay

    L’Europe se dote d’une législation sur l’intelligence artificielle

    12 décembre 2023, 06h20
         |     

    Un accord politique vient d’être conclu entre le Parlement européen et le Conseil sur la législation sur l’intelligence artificielle (législation sur l’IA), proposé par la Commission européenne en avril 2021. « L’intelligence artificielle change déjà notre vie quotidienne, indique Ursula von der Leyen, présidente de la Commission européenne. Et ce n’est qu’un début. »

    « Utilisée judicieusement et largement, l’IA promet d’énormes avantages pour notre économie et notre société, ajoute-t-elle . C’est pourquoi je me félicite vivement de l’accord politique intervenu (...) par le Parlement européen et le Conseil sur la législation sur l’intelligence artificielle. La législation de l’UE sur l’IA est le tout premier cadre juridique complet en matière d’intelligence artificielle dans le monde. Il s’agit donc d’un moment historique. La législation sur l’IA transpose les valeurs européennes à une nouvelle ère. En axant la réglementation sur les risques identifiables, l’accord conclu aujourd’hui favorisera l’innovation responsable en Europe. En garantissant la sécurité et les droits fondamentaux des citoyens et des entreprises, il soutiendra le développement, le déploiement et l’adoption d’une IA digne de confiance dans l’UE. Notre législation sur l’IA apportera une contribution substantielle à l’élaboration de règles et de principes mondiaux pour une IA centrée sur l’humain. »

    L’approche européenne de l’IA digne de confiance

    Les nouvelles règles seront appliquées directement et de la même manière dans tous les États membres, sur la base d’une définition de l’IA à l’épreuve du temps. Elles suivent une approche fondée sur le risque :

    Risque minimal : La grande majorité des systèmes d’IA entrent dans la catégorie des risques minimes. Les applications à risque minimal telles que les systèmes de recommandation ou les filtres anti-spam basés sur l’IA bénéficieront d’un laissez-passer et d’une absence d’obligations, car ces systèmes ne présentent qu’un risque minimal ou nul pour les droits ou la sécurité des citoyens. Sur une base volontaire, les entreprises peuvent néanmoins s’engager à respecter des codes de conduite supplémentaires pour ces systèmes d’IA.

    Risque élevé : Les systèmes d’IA identifiés comme étant à haut risque devront se conformer à des exigences strictes, notamment des systèmes d’atténuation des risques, une qualité élevée des ensembles de données, l’enregistrement des activités, une documentation détaillée, des informations claires pour l’utilisateur, une supervision humaine et un niveau élevé de robustesse, de précision et de cybersécurité. Les bacs à sable réglementaires faciliteront l’innovation responsable et le développement de systèmes d’IA conformes.

    Parmi les systèmes d’IA à haut risque, on peut citer certaines infrastructures critiques, par exemple dans les domaines de l’eau, du gaz et de l’électricité, les dispositifs médicaux, les systèmes permettant de déterminer l’accès aux établissements d’enseignement ou de recruter des personnes, ou encore certains systèmes utilisés dans les domaines de l’application de la loi, du contrôle des frontières, de l’administration de la justice et des processus démocratiques. En outre, les systèmes biométriques d’identification, de catégorisation et de reconnaissance des émotions sont également considérés comme présentant un risque élevé.

    Risque inacceptable : Les systèmes d’IA considérés comme une menace évidente pour les droits fondamentaux des personnes seront interdits. Il s’agit notamment des systèmes ou applications d’IA qui manipulent le comportement humain pour contourner le libre arbitre des utilisateurs, tels que les jouets utilisant l’assistance vocale pour encourager les comportements dangereux des mineurs ou les systèmes qui permettent la "notation sociale" par les gouvernements ou les entreprises, ainsi que certaines applications de police prédictive. En outre, certaines utilisations de systèmes biométriques seront interdites, par exemple les systèmes de reconnaissance des émotions utilisés sur le lieu de travail et certains systèmes de catégorisation des personnes ou d’identification biométrique à distance en temps réel à des fins d’application de la loi dans des espaces accessibles au public (avec de rares exceptions).

    Risque de transparence spécifique : Lors de l’utilisation de systèmes d’IA tels que les chatbots, les utilisateurs doivent être conscients qu’ils interagissent avec une machine. Les "deep fakes" et autres contenus générés par l’IA devront être étiquetés comme tels, et les utilisateurs devront être informés de l’utilisation de systèmes de catégorisation biométrique ou de reconnaissance des émotions. En outre, les fournisseurs devront concevoir des systèmes de manière à ce que les contenus audio, vidéo, textuels et images synthétiques soient marqués dans un format lisible par la machine et détectables comme étant générés ou manipulés artificiellement.

    Amendes

    Les entreprises qui ne respectent pas les règles seront sanctionnées par des amendes. Les amendes iraient de 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial (le montant le plus élevé étant retenu) pour les violations des applications d’IA interdites, à 15 millions d’euros ou 3 % pour les violations d’autres obligations et à 7,5 millions d’euros ou 1,5 % pour la fourniture d’informations incorrectes. Des plafonds plus proportionnés sont prévus pour les amendes administratives infligées aux PME et aux jeunes entreprises en cas d’infraction à la loi sur l’IA.

    IA à usage général

    La loi sur l’IA introduit des règles spécifiques pour les modèles d’IA à usage général qui garantiront la transparence tout au long de la chaîne de valeur. Pour les modèles très puissants susceptibles de présenter des risques systémiques, il y aura des obligations contraignantes supplémentaires liées à la gestion des risques et au suivi des incidents graves, à l’évaluation des modèles et aux tests contradictoires. Ces nouvelles obligations seront mises en œuvre au moyen de codes de bonnes pratiques élaborés par l’industrie, la communauté scientifique, la société civile et d’autres parties prenantes, en collaboration avec la Commission.

    En termes de gouvernance, les autorités nationales compétentes en matière de surveillance du marché superviseront la mise en œuvre des nouvelles règles au niveau national, tandis que la création d’un nouvel Office européen de l’IA au sein de la Commission européenne assurera la coordination au niveau européen. Le nouvel office de l’IA supervisera également la mise en œuvre et l’application des nouvelles règles relatives aux modèles d’IA à usage général. Avec les autorités nationales de surveillance du marché, l’office de l’IA sera le premier organisme au monde à appliquer des règles contraignantes en matière d’IA et devrait donc devenir un point de référence international. Pour les modèles à usage général, un groupe scientifique d’experts indépendants jouera un rôle central en émettant des alertes sur les risques systémiques et en contribuant à la classification et à l’évaluation des modèles.

    Prochaines étapes

    L’accord politique est maintenant soumis à l’approbation formelle du Parlement européen et du Conseil et entrera en vigueur 20 jours après sa publication au Journal officiel. La loi sur l’IA deviendra alors applicable deux ans après son entrée en vigueur, à l’exception de certaines dispositions spécifiques : Les interdictions s’appliqueront déjà après 6 mois, tandis que les règles relatives à l’IA à des fins générales s’appliqueront après 12 mois.

    Pour combler la période de transition avant que le règlement ne devienne généralement applicable, la Commission lancera un pacte sur l’IA. Ce pacte réunira des développeurs d’IA d’Europe et du monde entier qui s’engageront, sur une base volontaire, à mettre en œuvre les principales obligations de la loi sur l’IA avant les échéances légales.

    Pour promouvoir des règles sur l’IA digne de confiance au niveau international, l’Union européenne continuera à travailler dans des forums tels que le G7, l’OCDE, le Conseil de l’Europe, le G20 et les Nations unies. Tout récemment, nous avons soutenu l’accord conclu par les dirigeants du G7 dans le cadre du processus d’Hiroshima sur les principes directeurs internationaux et un code de conduite volontaire pour les systèmes d’IA avancés.

    Contexte

    Depuis des années, la Commission facilite et renforce la coopération en matière d’IA dans l’ensemble de l’UE afin de stimuler sa compétitivité et de garantir une confiance fondée sur les valeurs de l’UE.

    À la suite de la publication de la stratégie européenne sur l’IA en 2018 et après une vaste consultation des parties prenantes, le groupe d’experts de haut niveau sur l’intelligence artificielle (HLEG) a élaboré des lignes directrices pour une IA digne de confiance en 2019, ainsi qu’une liste d’évaluation pour une IA digne de confiance en 2020. Parallèlement, le premier plan coordonné sur l’IA a été publié en décembre 2018 dans le cadre d’un engagement commun avec les États membres.

    Le livre blanc de la Commission sur l’IA, publié en 2020, a défini une vision claire de l’IA en Europe : un écosystème d’excellence et de confiance, préparant le terrain pour l’accord politique d’aujourd’hui. La consultation publique sur le livre blanc sur l’IA a suscité une large participation dans le monde entier. Le livre blanc était accompagné d’un "rapport sur les implications de l’intelligence artificielle, de l’internet des objets et de la robotique en matière de sécurité et de responsabilité", qui concluait que la législation actuelle sur la sécurité des produits comportait un certain nombre de lacunes qu’il convenait de combler, notamment dans la directive "Machines".

    Les recherches indépendantes et fondées sur des données probantes menées par le Centre commun de recherche (CCR) ont joué un rôle fondamental dans l’élaboration des politiques de l’UE en matière d’intelligence artificielle et dans leur mise en œuvre effective. Grâce à des recherches et des analyses rigoureuses, le CCR a contribué à l’élaboration de la loi sur l’IA, en fournissant des informations sur la terminologie de l’IA, la classification des risques et les exigences techniques, et en contribuant à l’élaboration en cours de normes harmonisées.

    Sur le même sujet

    Intéressé.e à reproduire un article, une photo ou une vidéo ?

    En bénéficiant de notre licence de reproduction, vous pourrez :

    • publier un article dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • en modifier la longueur
    • recevoir les photos (et vidéos, si applicable) en haute résolution
    • publier les photos (et vidéos, si applicable) dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • le contenu devient public sur notre plateforme, ce qui vous octroie encore plus de visibilité

    Sous réserve que les droits sur les contenus que vous souhaitez reproduire (textes, photos ou vidéos) nous appartiennent.

    DERNIERS ARTICLES

    Bell Média lance un nouveau portfolio de chaînes FAST

    Bell Média lance un nouveau portfolio de chaînes FAST

    Suite
    26 avril 2024, 00h30