Législation sur l’intelligence artificielle

En attente de la position du Conseil en 1ère lecture

📌 Votes principaux

👍 Proposition de la commission
✅️ Adopté

🇪🇺 Députés européens

499
28
93

🇫🇷 Députés français🗳 Voir le vote

62
12
Parmi 79 députés, 74 ont votés.
14 juin 2023
↩️ Renvoi en commission
✅️ Approuvé
🖐 Vote à main levée
14 juin 2023

📚 Sources

🗃️ Données

📝 Amendement n°23 | Partie 1 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°23 | Partie 2 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°29 ✅️ Adopté

(10) Afin de garantir des conditions de concurrence équitables et une protection efficace des droits et libertés des citoyens dans toute l’Union et à l’échelle internationale , les règles établies par le présent règlement devraient s’appliquer de manière non discriminatoire aux fournisseurs de systèmes d’IA, qu’ils soient établis dans l’Union ou dans un pays tiers, et aux utilisateurs déployeurs de systèmes d’IA établis dans l’Union. Pour que l’Union reste fidèle à ses valeurs fondamentales, les systèmes d’IA destinés à être utilisés pour des pratiques considérées comme inacceptables par le présent règlement devraient également être considérés comme inacceptables en dehors de l’Union en raison de leur effet particulièrement néfaste sur les droits fondamentaux consacrés par la charte. Il convient donc d’interdire l’exportation de ces systèmes d’IA vers des pays tiers par des fournisseurs résidant dans l’Union.

Déposé par la commission compétente

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°67 | Partie 1 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°67 | Partie 2 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°73 | Partie 1 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

457
147
13
🤖 Vote électronique
📝 Amendement n°73 | Partie 2 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°92 | Partie 1 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°92 | Partie 2 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°147 ✅️ Adopté

c bis)aux fournisseurs qui mettent sur le marché ou mettent en service des systèmes d’IA visés à l’article 5 en dehors de l’Union, lorsque le fournisseur ou le distributeur de ces systèmes se situe dans l’Union;

Déposé par la commission compétente

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°167 ✅️ Adopté

1 ter)«risque significatif», un risque qui est significatif du fait de la combinaison de sa gravité, de son intensité, de sa probabilité d’occurrence et de la durée de ses effets, ainsi que de sa capacité à affecter une personne, une pluralité de personnes ou à affecter un groupe particulier de personnes;

Déposé par la commission compétente

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°227 ✅️ Adopté

d quinquies) la mise en service ou l’utilisation de systèmes d’IA pour l’analyse d’images enregistrées provenant d’espaces accessibles au public au moyen de systèmes d’identification biométrique à distance «postérieurs», à moins qu’ils ne soient soumis à une autorisation judiciaire préalable conformément au droit de l’Union et soient strictement nécessaires à la recherche ciblée liée à une infraction pénale grave spécifique, telle que définie à l’article 83, paragraphe 1 du TFUE, qui a déjà eu lieu, à des fins répressives.

Déposé par la commission compétente

🔗 Voir la source

📝 Amendement n°234 | Partie 1 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°234 | Partie 3 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°290 ✅️ Adopté

5. Dans la mesure où cela est strictement nécessaire aux fins de la surveillance, de la détection et de la correction des biais négatifs en ce qui concerne les systèmes d’IA à haut risque, les fournisseurs de ces systèmes peuvent exceptionnellement traiter des catégories particulières de données à caractère personnel visées à l’article 9, paragraphe 1, du règlement (UE) 2016/679, à l’article 10 de la directive (UE) 2016/680 et à l’article 10, paragraphe 1, du règlement (UE) 2018/1725, sous réserve de garanties appropriées pour les droits et libertés fondamentaux des personnes physiques, y compris des limitations techniques relatives à la réutilisation ainsi que l’utilisation des mesures les plus avancées en matière de sécurité et de protection de la vie privée , telles que la pseudonymisation, ou le cryptage lorsque l’anonymisation peut avoir une incidence significative sur l’objectif poursuivi . En particulier, pour que ce traitement puisse avoir lieu, toutes les conditions suivantes s’appliquent: a) le traitement de données synthétiques ou anonymisées ne permet pas de satisfaire de manière efficace la détection et la correction des biais; b) Les données font l’objet d’une pseudonymisation; c) le fournisseur prend des mesures techniques et organisationnelles appropriées pour garantir que les données traitées aux fins du présent paragraphe sont sécurisées, protégées, soumises à des garanties appropriées, et que seules les personnes autorisées ont accès à ces données conformément à des obligations de confidentialité appropriées; d) les données traitées aux fins du présent paragraphe ne sont pas transmises, transférées ou consultées d’une autre manière par d’autres parties; e) les données traitées aux fins du présent paragraphe sont protégées par des mesures techniques et organisationnelles appropriées et supprimées une fois que le biais a été corrigé ou que la période de conservation de ces données personnelles a expiré; f) des mesures efficaces et appropriées sont en place pour garantir la disponibilité, la sécurité et la résilience des systèmes et des services de traitement face aux incidents techniques ou physiques; g) des mesures efficaces et appropriées sont en place pour garantir la sécurité physique des lieux où les données sont stockées et traitées, la gouvernance et la gestion des systèmes informatiques internes et des systèmes de sécurité informatique, et la certification des processus et des produits; Les fournisseurs ayant recours à cette disposition établissent une documentation expliquant pourquoi le traitement de catégories particulières de données à caractère personnel était nécessaire pour détecter et corriger les biais .

Déposé par la commission compétente

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°297 ✅️ Adopté

2 bis.Les systèmes d’IA à haut risque sont conçus et développés avec les fonctionnalités d’enregistrement permettant l’enregistrement de la consommation d’énergie, la mesure ou le calcul de l’utilisation des ressources et l’incidence environnementale du système d’IA à haut risque pendant toutes les étapes du cycle de vie du système.

Déposé par la commission compétente

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°408 ✅️ Adopté

5 bis.Avant la mise en service ou l’utilisation d’un système d’IA à haut risque sur le lieu de travail, les déployeurs consultent les représentants des travailleurs en vue de parvenir à un accord conformément à la directive 2002/14/CE, et informent les employés concernés qu’ils seront soumis à l’utilisation du système.

Déposé par la commission compétente

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°413 | Partie 1 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°413 | Partie 2 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°494 | Partie 1 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°630 ✅️ Adopté

Article 68 quater Droit à l’explication des décisions individuelles 1. Toute personne concernée faisant l’objet d’une décision prise par un déployeur sur la base du résultat d’un système d’IA à haut risque qui produit des effets juridiques les concernant ou les affectant de manière significative de façon similaire qu’elle considère comme ayant des conséquences négatives sur sa santé, sa sécurité, ses droits fondamentaux, son bien-être socioéconomique ou tout autre droit découlant des obligations énoncées dans le présent règlement, a le droit de demander au déployeur une explication claire et pertinente, conformément à l’article 13, paragraphe 1, du rôle du système d’IA dans la procédure décisionnelle, des principaux paramètres de la décision prise et des données d’entrée concernées. 2. Le paragraphe|1 ne s’applique pas à l’utilisation de systèmes d’IA pour lesquels des exceptions ou des restrictions à l’obligation prévue au paragraphe 1 découlent du droit de l’Union ou du droit national, dans la mesure où ces exceptions ou restrictions respectent l’essence des libertés et droits fondamentaux et constituent une mesure nécessaire et proportionnée dans une société démocratique. 3. Le présent article s’applique sans préjudice des articles 13, 14, 15 et 22 du règlement 2016/679.

Déposé par la commission compétente

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°709 | Partie 1 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°709 | Partie 2 ✅️ Adopté

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°733 ✅️ Adopté

b) les systèmes d’IA destinés à être utilisés par les autorités publiques compétentes ou les organes ou organismes de l’Union, ou en leur nom, pour évaluer des risques, y compris des risques pour la sécurité, des risques d’immigration irrégulière ou des risques pour la santé , , posés par une personne physique qui a l’intention d’entrer ou qui est entrée sur le territoire d’un État membre;

Déposé par la commission compétente

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°740 ✅️ Adopté

a ter)Les systèmes d’IA destinés à être utilisés par les plateformes de médias sociaux qui ont été désignées comme très grandes plateformes en ligne au sens de l’article 33 du règlement (UE) 2022/2065, dans leurs systèmes de recommandation afin de recommander au bénéficiaire du service les contenus générés par les utilisateurs disponible sur la plateforme.

Déposé par la commission compétente

🔗 Voir la source

369
234
19
🤖 Vote électronique
📝 Amendement n°772 ❌️ Rejeté

d bis) la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA par les autorités compétentes en matière d’asile, de migration ou de gestion des frontières ou en leur nom, afin de dresser le profil d’une personne ou d’évaluer si une personne qui a l’intention d’entrer ou est déjà entrée sur le territoire d’un État membre pourrait constituer une menace, y compris une menace pour la sécurité intérieure ou la santé publique, sur la base de données personnelles ou sensibles, connues ou présumées;

Déposé par des députés dont Sylvie GUILLAUME (PS), Pascal DURAND (RE) et Gwendoline DELBOS-CORFIELD (EELV)

🔗 Voir la source

📝 Amendement n°773 ❌️ Rejeté

d ter) la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA par des autorités compétentes, ou pour leur compte, en matière de gestion de l’asile, de la migration et de la gestion des frontières, afin de prévoir ou de prédire les déplacements individuels ou collectifs relatifs au franchissement des frontières;

Déposé par des députés dont Sylvie GUILLAUME (PS), Pascal DURAND (RE) et Gwendoline DELBOS-CORFIELD (EELV)

🔗 Voir la source

📝 Amendement n°774 ❌️ Rejeté

-1 Le présent règlement repose sur le principe qu’il incombe aux développeurs, aux importateurs, aux distributeurs et aux utilisateurs en aval de veiller à développer, à mettre sur le marché ou à utiliser l’intelligence artificielle qui n’a pas d’effets nocifs pour la santé, la sécurité, les droits fondamentaux et l’environnement. Ses dispositions s’appuient sur le principe de précaution.

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°775 ❌️ Rejeté

1 bis) «risque important», un risque conséquent par sa gravité, son intensité, sa probabilité d’occurrence, la durée de ses effets, sa capacité à affecter une ou des personnes ou un groupe particulier de personnes, ou une combinaison de ces facteurs;

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°777 🚫 Annulé

2. L’utilisation de systèmes d’identification biométriques à distance en «temps réel» dans des espaces accessibles au public à des fins répressives en vue de la réalisation de l’un des objectifs énumérés au paragraphe 1, point d), tient compte des éléments suivants: ;

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°778 ❌️ Rejeté

2 bis. la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA par les autorités compétentes ou pour leur compte en matière de gestion de la migration, de l’asile et des contrôles aux frontières, afin de surveiller ou de traiter des données dans le cadre d’activités de gestion des frontières afin de reconnaître ou de détecter des objets et des personnes physiques, de dresser le profil d’une personne ou d’évaluer si une personne physique, qui a l’intention d’entrer ou est entrée sur le territoire d’un État membre, peut présenter un risque, y compris un risque de menace pour la sécurité intérieure, la migration irrégulière ou la santé publique, sur la base de données personnelles ou sensibles, connues ou présumées;

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°779 ❌️ Rejeté

2 ter. les systèmes d’IA qui sont ou peuvent être utilisés pour la détection de la présence d’une personne sur des lieux de travail, dans des environnements éducatifs ainsi que dans le cadre de la surveillance des frontières, y compris dans les versions virtuelles ou en ligne de ces espaces, sur la base de leurs données biométriques ou fondées sur la biométrie;

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°780 ❌️ Rejeté

2 quater. la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA par des autorités compétentes en matière de gestion de la migration, de l’asile et des contrôles aux frontières, ou pour leur compte, pour prévoir ou prédire les déplacements des personnes dans le but, ou de toute manière raisonnablement prévisible, d’interdire, de restreindre ou d’empêcher la migration ou le franchissement des frontières;

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°781 ❌️ Rejeté

2. Outre les systèmes d’IA à haut risque visés au paragraphe 1, les systèmes d’IA visés à l’annexe III sont également considérés comme à haut risque , s’ils représentent un risque important pour la santé humaine, la sécurité ou les droits fondamentaux. Les systèmes énumérés à l’annexe III sont présumés présenter un risque élevé .

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°783 ❌️ Rejeté

5 bis. Avant la mise en service ou l’utilisation d’un système d’IA à haut risque sur le lieu de travail, les employeurs signent, après consultation, un accord avec les représentants des travailleurs conformément à la directive 2001/14/CE, la directive 2009/38/CE [comité d’entreprise européen] ou la directive 2001/86/CE [société européenne]et informent les employés concernés qu’ils seront soumis au système.

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°785 ❌️ Rejeté

Article 68 bis Représentation Représentation des personnes physiques et droit des organisations de défense de l’intérêt général à introduire une réclamation auprès d’une autorité de contrôle nationale 1. Les personnes physiques qui considèrent que le système d’IA qui les concerne enfreint le présent règlement ont le droit de mandater une organisation d’intérêt public, à savoir tout organisme, organisation ou association à but non lucratif, dûment constitué conformément au droit d’un État membre et poursuivant des objectifs statutaires d’intérêt public, pour déposer en leur nom une réclamation visée à l’article 68 bis auprès d’une autorité nationale compétente et pour les représenter dans l’accès au recours juridictionnel visé à l’article 68 ter et pour les représenter devant la juridiction. 2. Les organisations de défense de l’intérêt général ont le droit d’introduire des réclamations auprès des autorités nationales compétentes, indépendamment du fait qu’elles aient été mandatées ou non par la personne physique concernée, lorsqu’elles considèrent qu’un système d’IA a été mis sur le marché, mis en service ou utilisé en infraction avec le présent règlement ou qu’il porte atteinte aux droits fondamentaux.

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°786 ❌️ Rejeté

Article 68 ter Droit à l’explication des décisions individuelles Toute personne faisant l’objet d’une décision prise par un déployeur sur la base du résultat d’un système d’IA qui produit des effets juridiques ou affecte cette personne d’une manière qu’elle considère comme des conséquences négatives sur sa santé, sa sécurité, ses droits fondamentaux, son bien-être socioéconomique ou tout autre droit découlant des obligations énoncées dans le présent règlement, a le droit de demander au déployeur une explication claire et pertinente, conformément à l’article 13, paragraphe 1, du rôle du système d’IA dans la procédure décisionnelle, des principaux paramètres de la décision prise et des données d’entrée concernées.

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°787 🚫 Annulé

Les systèmes d’IA à haut risque au sens de l’article 6, paragraphe 2 , sont les systèmes d’IA répertoriés dans l’un des domaines suivants , utilisés ou dont on peut raisonnablement prévoir qu’ils seront utilisés pour :

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°789 ❌️ Rejeté

5 bis. le cas échéant, les catégories de personnes physiques et de groupes qui pourraient ou devraient être touchées;

Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)

🔗 Voir la source

📝 Amendement n°791 ❌️ Rejeté

(2 bis) L’intelligence artificielle déjà développée et mise en œuvre offre un immense potentiel pour divers secteurs de l’économie et pour résoudre les difficultés quotidiennes des citoyens. Elle est l’occasion unique d’accroître la productivité, la prospérité, le confort de la vie et le bien-être au travail, elle peut avoir une incidence positive considérable sur la manière de résoudre les défis sociétaux, d’améliorer les soins de santé, les services publics et privés, les transports et les processus de fabrication, et de réduire les coûts et les formalités administratives de la transition écologique en renforçant l’efficacité des processus décisionnels et d’allocation des ressources. Le développement et l’actualisation permanente de systèmes d’intelligence artificielle fiables sont par conséquent essentiels pour maintenir et accroître la compétitivité des entreprises de l’Union et préserver la compétitivité du marché intérieur à l’échelle mondiale. Compte tenu des immenses possibilités offertes par l’intelligence artificielle et de l’émergence de tensions internationales, le cadre réglementaire devrait soigneusement équilibrer les obligations afin de garantir la plus grande valeur ajoutée de cette technologie sans en ralentir le développement.

Déposé par ECR

🔗 Voir la source

📝 Amendement n°792 ❌️ Rejeté

3. Le présent règlement ne s’applique pas aux systèmes d’IA développés ou conçus, développés, modifiés, utilisés exclusivement à des fins militaires.

Déposé par ECR

🔗 Voir la source

📝 Amendement n°793 ❌️ Rejeté

i) le traitement préférentiel, préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l’origine;

Déposé par ECR

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°794 ❌️ Rejeté

ii) le traitement préférentiel, préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci;

Déposé par ECR

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°795 🚫 Annulé

2 bis. Le cas échéant, en fonction de l’échelle et du type de déploiement des points finaux, les systèmes d’IA à haut risque sont conçus et développés avec les fonctionnalités de journalisation permettant de calculer leur consommation d’énergie, l’utilisation de leurs ressources et leur empreinte environnementale à toutes les étapes du cycle de vie du système.

Déposé par ECR

🔗 Voir la source

📝 Amendement n°796 ❌️ Rejeté

Article 28 bis Obligations du fournisseur d’un modèle de fondation 4 bis (nouveau). Le résumé visé au paragraphe 4, point c), est soumis à l’exclusion de toute donnée protégée par des droits de protection intellectuelle ou constituant un secret d’affaires.

Déposé par ECR

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°797 ❌️ Rejeté

2. Au plus tard le [trois ans après la date d’application du présent règlement visée à l’article 85, paragraphe 2] et tous les quatre ans par la suite, la Commission présente au Parlement européen et au Conseil un rapport détaillé sur l’évaluation et le réexamen du présent règlement. Les rapports sont publiés.

Déposé par ECR

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°798 ❌️ Rejeté

3 bis. Outre les exigences prévues au paragraphe 3, les rapports visés au paragraphe 2 comprennent spécifiquement: a) une évaluation visant à déterminer si, et comment, le présent règlement a contribué à faciliter le développement et le déploiement de produits et de services d’intelligence artificielle dans l’Union, y compris les logiciels libres, leur tarification, leur adaptation par les entreprises, la protection des droits fondamentaux, ainsi qu’un résumé des effets positifs et négatifs sur les consommateurs et les entreprises, en particulier sur les petites et moyennes entreprises, et les niveaux d’investissement dans l’innovation en matière d’intelligence artificielle dans l’Union. La Commission devrait rédiger son rapport dans le contexte des tendances internationales dans ce domaine et analyser en particulier l’incidence des dispositions suivantes: i) l’article 4 bis, l’article 6, paragraphes 2 et 2 bis, l’article 10, l’article 12, paragraphe 2 bis, l’article 28, l’article 28 ter, l’article 29, l’article 29 bis et l’article 56 ter; ii) l’annexe III, point 8 a ter, et l’annexe IV, point 3 ter.

Déposé par ECR

🔗 Voir la source

📝 Amendement n°799 🚫 Annulé

8 bis) les systèmes d’IA destinés à être utilisés par le système de recommandation de plateformes de réseaux sociaux désignées comme très grandes plateformes en ligne au sens de l’article 33 du règlement (UE) 2022/2065, et visant à recommander aux utilisateurs du contenu généré par d’autres utilisateurs de la plateforme, à moins que cette très grande plateforme ne respecte déjà l’article 34, paragraphes 1 et 2 du règlement (UE) 2022/2065.

Déposé par ECR

🔗 Voir la source

📝 Amendement n°800 ❌️ Rejeté

(18 bis) Dans certaines situations exceptionnelles, dont la portée et la durée sont limitées, les risques que présentent les systèmes d’identification biométrique à distance en temps réel pour la reconnaissance des personnes physiques dans des espaces accessibles au public, pour les droits et libertés des personnes concernées pourraient être compensés et dépassés par les avantages substantiels qu’ils présentent pour la société et les personnes et en particulier la sécurité et la vie des enfants. C’est particulièrement pertinent dans les situations qui concernent la recherche d’enfants disparus ou d’autres personnes, ou des activités visant à prévenir un attentat terroriste imminent ou une menace pour la vie. Dans ces cas spécifiques, et uniquement avec l’accord préalable de l’autorité judiciaire ou de l’autorité administrative indépendante d’un État membre et sous réserve d’autres garanties opérationnelles, l’utilisation de systèmes d’identification biométrique à distance en temps réel pourrait être autorisée. Toute utilisation de ce type devrait respecter strictement les garanties et conditions nécessaires et proportionnées qui s’y rapportent, notamment en ce qui concerne les limites temporelles, géographiques et personnelles.

Déposé par PPE (🇫🇷 : Les Républicains, Les centristes)

🔗 Voir la source

📝 Amendement n°801 | Partie 2 🚫 Annulé

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

📝 Amendement n°801 | Partie 3 🚫 Annulé

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

📝 Amendement n°802 | Partie 1 🚫 Annulé

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

📝 Amendement n°802 | Partie 2 🚫 Annulé

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

📝 Amendement n°802 | Partie 3 🚫 Annulé

🔜 Vote par division : aperçu bientôt disponible

🔗 Voir la source

📝 Amendement n°803 ❌️ Rejeté

(17) Les systèmes d’IA permettant la notation sociale des personnes physiques à des fins générales par les autorités publiques ou pour le compte de celles-ci peuvent conduire à des résultats discriminatoires et à l’exclusion de certains groupes. Ils peuvent porter atteinte au droit à la dignité et à la non-discrimination et sont contraires aux valeurs d’égalité et de justice. Ces systèmes d’IA évaluent ou classent la fiabilité des personnes physiques en fonction de leur comportement social dans plusieurs contextes ou de caractéristiques personnelles ou de personnalité connues ou prédites. La note sociale obtenue à partir de ces systèmes d’IA peut conduire au traitement préjudiciable ou défavorable de personnes physiques ou de groupes entiers dans des contextes sociaux qui sont dissociés du contexte dans lequel les données ont été initialement générées ou collectées, ou à un traitement préjudiciable disproportionné ou injustifié au regard de la gravité de leur comportement social. Il convient donc d’interdire de tels systèmes d’IA en toutes circonstances .

Déposé par ID (🇫🇷 : Rassemblement national)

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°804 ❌️ Rejeté

c) la mise sur le marché, la mise en service ou l’utilisation, par les pouvoirs publics ou pour leur compte, de systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes physiques au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues ou prédites , la note sociale conduisant à l’une ou l’autre des situations suivantes, ou aux deux: .

Déposé par ID (🇫🇷 : Rassemblement national)

🔗 Voir la source

📝 Amendement n°805 ❌️ Rejeté

4 bis. Les systèmes d’IA faisant l’objet des mesures énoncées au paragraphe 3 obligent, dès leur conception, les personnes exerçant une supervision humaine à contrôler et à valider les résultats générés par le système tout en ayant la possibilité d’ignorer, de passer outre ou d’inverser les résultats.

Déposé par ID (🇫🇷 : Rassemblement national)

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°806 ❌️ Rejeté

4 ter. L’utilisateur final d’un système d’IA à haut risque est informé de l’origine humaine ou de l’approbation humaine de toute décision prise à son égard et, le cas échéant, demande un réexamen de la décision par un être humain uniquement.

Déposé par ID (🇫🇷 : Rassemblement national)

🔗 Voir la source

🖐 Vote à main levée
🚫 Aucun amendement
Nicolas BAY | Reconquête!
. – Je me suis abstenu sur ce texte, déjà en partie dépassé par les avancées fulgurantes dans le domaine de l’IA. Je crains que la règlementation ne soit trop lourde et ne pénalise l’industrie et la recherche européenne, surtout en comparaison des législations américaine et chinoise. De plus, le rapport insiste sur les «biais» de l’intelligence artificielle ... en intégrant d’autres biais, idéologiques et politiques, pour les «corriger». Il y a là un risque de contrôle de l’intelligence artificielle; certaines applications sont déjà entraînées à affirmer des choses fausses ou orientées pour promouvoir la pensée unique.Néanmoins, l’enjeu est tel qu’il est indispensable d’avoir un cadre réglementaire pour assurer la liberté des citoyens en éloignant les risques de mesures de contrôle et de surveillance de masse. L’idée d’un «bac à sable» d’apprentissage de l’IA permettra également à l’industrie de tester ses produits en développement avec plus de souplesse avant le lancement public.
Dominique BILDE | Rassemblement national
J’ai voté pour ce texte.Un règlement sur l’intelligence artificielle représenterait une première dans le monde.La proposition de texte s’appliquerait à tous les fournisseurs, européens ou non, qui commercialisent un système d’intelligence artificielle dans l’Union européenne. Les systèmes à usage militaire sont exclus du texte, de même que les autorités publiques des pays tiers agissant dans le cadre des accords internationaux.Le texte adopté est équilibré entre le soutien à l’innovation européenne et la protection contre les risques liés à l’intelligence artificielle.
Geoffroy DIDIER | Les Républicains
Ce rapport vise à établir un cadre juridique uniforme pour le développement, la commercialisation et l'utilisation de l'intelligence artificielle, garantissant un niveau de protection élevé et cohérent dans l'ensemble de l'UE. Malgré des propositions équilibrées afin de faciliter le développement d’un marché unique pour les applications d’intelligences artificielles légales et sûres, il est regrettable que le texte interdise toute utilisation de l’identification biométrique en temps réel et a posteriori, y compris dans le cas d’enlèvement d’enfants ou d’attaques terroristes. L’utilisation de ses systèmes pour l’identification biométrique dans le cadre de recherche de victime et de prévention de crimes graves est nécessaire afin de protéger les citoyens européens. Du fait de la regrettable interdiction absolue de l'identification biométrique et même si je suis en plein accord avec la philosophie du texte selon laquelle l'IA doit être à la fois encouragée et régulée, je n'ai pas eu d'autre choix que de m'abstenir sur ce texte.
Sylvie GUILLAUME | Parti socialiste
J'ai voté en faveur de la proposition du Parlement européen sur la loi sur l'intelligence artificielle car il est urgent de limiter les risques liés à cette nouvelle technologie et d’en promouvoir son utilisation éthique notamment en interdisant les systèmes d’IA présentant des niveaux de risque inacceptables comme les systèmes d’identification biométrique à distance, l’horizon sombre de la police prédictive et les systèmes de reconnaissance des émotions
Fabienne KELLER | Renaissance
Je me félicite de l’adoption du règlement encadrant l’usage de l’Intelligence Artificielle.L'IA joue en effet un rôle croissant dans notre quotidien apportant des bienfaits mais aussi des défis, comme illustré par l’émergence du système chatGPT. Ce règlement veille donc à ce que les IA sur le marché européen soient sûres, respectent les droits fondamentaux et les valeurs de l'Union. Il impose des règles de transparence, de surveillance du marché de l’IA, et interdit certaines pratiques potentiellement dangereuses : manipulations d’images subliminales, abus d’identification biométrique en public, police prédictive.Ce texte prévoit aussi des mesures pour soutenir l’innovation de l’IA au sein de l’UE. Il vise à permettre le développement du potentiel de l'IA en termes de créativité et de productivité, tout en protégeant nos libertés fondamentales, priorité de mon groupe Renew Europe.
Gilles LEBRETON | Rassemblement national
J’ai voté pour ce rapport car il est un premier pas vers une règlementation claire de l’intelligence artificielle. C’est un sujet majeur pour l’avenir, auquel j’ai participé en tant que rédacteur d’un rapport sur les aspects civils et militaires de l’utilisation de l’intelligence artificielle.
Emmanuel MAUREL | Gauche républicaine et socialiste
Ce texte représente une avancée significative pour encadrer l’utilisation de l’intelligence artificielle, et l’opportunité pour l’Union européenne d’être pionnière en garantissant sur son sol une utilisation responsable et éthique de l’IA. L’interdiction de la reconnaissance biométrique à distance maintenue dans le texte est notamment une avancée majeure pour la protection de nos droits fondamentaux. Le vote de ce texte était primordial pour encadrer cette technologie qui évolue à une vitesse inouïe. J’ai donc voté en faveur de ce texte.
Nadine MORANO | Les Républicains
Je me suis abstenue sur ce rapport relatif à la législation sur l’intelligence artificielle (IA). Le texte contenait des dispositions pertinentes pour permettre à l’Europe d’être le premier continent à réglementer cette technologie en plein essor, par exemple en classant les différents systèmes d’IA en fonction du niveau de risque qu’ils présentent, en protégeant la propriété intellectuelle et en imposant l’affichage d’un label sur les contenus (photos, vidéos...) artificiellement générés. Mais il présentait aussi des dispositions introduites par les groupes de gauche, soutenues par les députés européens du groupe Renew, visant à interdire de façon générale et absolue l’utilisation de l’IA à des fins biométriques pour empêcher les attaques terroristes ou résoudre rapidement les enlèvements d’enfants. D’autres passages interdisaient l’usage de l’IA en matière d’asile, d’immigration et de gestion des frontières. Pour ma part, je suis favorable à l’utilisation, strictement encadrée, de l’IA pour renforcer la sécurité des citoyens européens. Je ne pouvais donc soutenir ce texte.
Anne SANDER | Les Républicains
Le rapport relatif à l’intelligence artificielle vise à réglementer l’IA et à lutter contre les risques associés à cette technologie, en particulier pour les libertés fondamentales, tout en préservant leur capacité de développement au sein de l’UE. Néanmoins, il aurait été possible d’autoriser l’identification biométrique dans le cas de certains crimes comme les actes terroristes ou les enlèvements d’enfants. Ces éléments n’ayant pas été retenus dans le texte final, j’ai fait le choix de m’abstenir.
Manon AUBRY | La France Insoumise
Ce rapport vise à approuver la position du Parlement européen sur le projet de législation sur l’intelligence artificielle. Il établit un premier cadre de régulation nécessaire, en interdisant un certain nombre de pratiques dangereuses (notamment la surveillance biométrique en temps réel), en définissant des catégories de risques et en instaurant des règles de transparence afin de lutter contre les dérives rendues possibles par ces technologies. J'ai donc soutenu cette position de négociation du Parlement qui aurait pu être plus ambitieuse en termes de régulation mais reste un premier effort bienvenu pour rétablir un contrôle sur le développement de l’intelligence artificielle et ses risques.
Leila CHAIBI | La France Insoumise
L’intelligence artificielle est une technologie nouvelle, complexe, et qui connaît une évolution très rapide. Si elle peut permettre des gains de temps et de productivité, elle pose surtout des questions éthiques.Ce texte réglemente la mise sur le marché et la mise en service des systèmes d’IA. Cette initiative d’encadrement européenne ferait de l’Union européenne une précurseure dans ce domaine récent.Nous avons voté ici sur la position du Parlement européen. Bien qu’elle contienne des lacunes et que je regrette que la définition des intelligences artificielles à haut-risque soit trop restreinte, des avancées sont à noter.En effet, ce texte dit clairement que la reconnaissance biométrique à distance en temps réel -c’est-à-dire la reconnaissance faciale- doit être interdite. C’est un revers pour Emmanuel Macron qui vient de l’autoriser “à titre expérimental” pendant les Jeux Olympiques de 2024 en France. Je m’étais déjà engagée, avec d’autres eurodéputés, en signant un appel dans la presse pour interdire cette pratique liberticide. Concernant la reconnaissance biométrique après coup, celle-ci serait autorisée mais seulement après autorisation judiciaire.C’est notamment du fait de ces deux éléments cruciaux pour nos libertés fondamentales que j’ai décidé de voter pour ce texte.
Christophe GRUDLER | Mouvement Démocrate
Parce qu’il en va de la sécurité de nos concitoyens afin de garantir des technologies sûres et transparentes, je me suis prononcé en faveur de ce texte qui fixe pour la première fois au monde un cadre pour le développement de l’intelligence artificielle (IA).Tout en continuant à soutenir l’innovation en matière d’IA, notamment à travers des « bacs à sable » pour des activités de recherche, nous avons souhaité interdire certaines pratiques abusives ; pour certaines applications de surveillance biométrique, de police prédictive ou la reconnaissance des émotions, l’utilisation de l’IA est désormais interdite. C’est une ligne que nous avons maintenue fermement avec l’ensemble de mon groupe Renew Europe.
Jérôme RIVIÈRE | Indépendant
. – Je me suis abstenu sur ce texte, déjà en partie dépassé par les avancées fulgurantes dans le domaine de l’IE. Je crains que la règlementation ne soit trop lourde et ne pénalise l’industrie et la recherche européenne, surtout en comparaison des Je me suis abstenu sur ce texte, déjà en partie dépassé par les avancées fulgurantes dans le domaine de l’IE. Je crains que la règlementation ne soit trop lourde et ne pénalise l’industrie et la recherche européenne, surtout en comparaison des législations américaine et chinoise. De plus, le rapport insiste sur les « biais » de l’intelligence artificielle... en intégrant d’autres biais, idéologiques et politiques, pour les « corriger ». Il y a là un risque de contrôle de l’intelligence artificielle ; certaines applications sont déjà entraînées à affirmer des choses fausses ou orientées pour promouvoir la pensée unique.Néanmoins, l’enjeu est tel qu’il est indispensable d’avoir un cadre réglementaire pour assurer la liberté des citoyens en éloignant les risques de mesures de contrôle et de surveillance de masse. L’idée d’un « bac à sable » d’apprentissage de l’IA permettra également à l’industrie de tester ses produits en développement avec plus de souplesse avant le lancement public.
Valérie HAYER | Renaissance
J’ai voté en faveur de ce rapport historique sur le projet de règlement visant à encadrer l’utilisation de l’intelligence artificielle et proposer un ensemble de règles harmonisées à l’échelle des 27 États membres de l’UE.Avec ce texte, nous veillerons à ce que les technologies de l’IA ne transigent jamais avec le respect des droits humains et que leur utilisation soit sûre. Certains systèmes d’IA incompatibles avec nos exigences en matière de gestion des risques seront interdits (c’est le cas de l'IA utilisée pour la notation sociale par exemple). Cette législation permettra d’organiser un marché de l’IA à l’échelle européenne, d’encourager l’innovation dans ce secteur et de garantir une meilleure application de la loi en ce qui concerne l’intelligence artificielle.Cette législation constitue une avancée majeure dans la réglementation des nouvelles technologies, et apporte la preuve que l’Union est à l’avant-garde des grands enjeux auxquels sont confrontées nos sociétés.
|
L’intelligence artificielle est l’une des révolutions technologiques de notre temps. Si son utilisation est vouée à s’accroitre au cours des prochaines années et permettra de grandes avancées dans de nombreux secteurs, il n’en est pas moins indispensable de veiller à ce qu’un cadre législatif soit fixé afin d’établir des règles permettant d’en sécuriser son utilisation et d’en faire une technologie respectueuse des droits fondamentaux et des valeurs de l’Union. Il est primordial que l’Union soit à la pointe du développement de l’intelligence artificielle pour assurer sa compétitivité et sa sécurité face aux puissances qui investissent massivement. Cependant, je souhaitais que le texte donne la possibilité pour les États membres de pouvoir recourir à l’identification biométrique en temps réel et à posteriori afin de prévenir des attaques terroristes, interpeller des criminels et retrouver des enfants disparus. Mon groupe politique avait déposé des amendements en ce sens mais ces derniers ont été rejetés lors du vote en session plénière. De ce fait, j’ai décidé de m’abstenir sur le vote final de ce rapport car il ne permettra pas à l’intelligence artificielle de pouvoir être utilisée pour assurer correctement la sécurité de nos concitoyens.
Jean-Paul GARRAUD | Rassemblement national
. – Le règlement sur l’I.A. représente une première mondiale dans l’encadrement des défis de l’intelligence artificielle. Le texte adopté crée un équilibre entre protection contre les risques de l’I.A. et soutien à l’innovation européenne, et les amendements les plus choquants adoptés (interdiction totale des systèmes d’I.A. dans la gestion des migrations, notamment) seront assurément rediscutés en trilogue sur initiative du Conseil. J’ai donc voté pour ce texte.
Catherine GRISET | Rassemblement national
. – Ce texte est nécessaire pour renforcer l’innovation européenne et limiter au maximum les risques que peut présenter l’Intelligence Artificielle. De plus, avec ce texte les États européens peuvent conserver leur souveraineté si leur législation est plus efficace ou en cas de condition nationale particulière. L’Intelligence Artificielle représente une filière d’avenir qu’il faut absolument encourager sur nos territoires afin de ne pas se faire dépasser. Ce texte présente tout de même des limites, notamment en insérant en tout lieu des «valeurs européennes» jamais définies ainsi que par sa volonté de créer un bureau européen de l’Intelligence Artificielle. Cela suggère encore une future agence européenne. Foncièrement ce texte est bon et présente un véritable investissement pour lequel je me suis positionnée en faveur.
Aurélia BEIGNEUX | Rassemblement national
La Commission a présenté une proposition de règlement établissant des règles harmonisées concernant l’intelligence artificielle (I.A.). La proposition s’applique à tous les fournisseurs, européens ou non, qui commercialisent un système d’I.A. dans l’Union. Elle exclut les systèmes à usage militaire, et les autorités publiques de pays tiers agissant dans le cadre d’accords internationaux conclus avec l’Union ou les États membres.Les négociations ont permis la prise en compte de nos propositions, dont plusieurs se retrouvent dans le texte (simplification du système de gestion des risques, meilleure protection des données personnelles, sensibilisation accrue des opérateurs des systèmes aux biais de l’informatique, volonté affichée de soutenir un écosystème européen de l’I.A., procédures simplifiées et exemptions pour les P.M.E.). Restent d’importantes réserves, telles que certaines « valeurs » européennes (égalité, diversité) rendues obligatoires dans les processus de développement et d’opération des systèmes d’I.A., ou encore le mode de gouvernance du « Bureau européen de l’I.A. », qui préfigure une future agence européenne.La position du Rassemblement national est celle d’une prise en compte des enjeux de l’I.A. et d’un investissement dans ses possibilités, s’agissant d’une technologie de rupture où la France et l’Europe ne peuvent se laisser dépasser.J’ai donc voté pour.
Mathilde ANDROUËT | Rassemblement national
. – Les amendements déposés par le rapporteur fictif avaient visé à maximiser l’innovation européenne tout en limitant les risques des systèmes d’IA sur la société. Ils s’étaient notamment concentrés sur la protection de la liberté et de la confidentialité vis-à-vis de certains systèmes d’IA, les garanties de sécurité dans la conception et l’usage des systèmes d’IA, l’affirmation de la souveraineté des États membres. Les négociations, au sein desquelles notre Groupe a été parfaitement intégré, ont permis la prise en compte de nos propositions, dont plusieurs se retrouvent dans le texte. J’ai voté pour.
Annika BRUNA | Rassemblement national
J’ai voté en faveur de ce texte globalement bon qui tient compte des enjeux de l’I.A. et d’un investissement dans ses possibilités, s’agissant d’une technologie de rupture où la France et l’Europe ne peuvent se laisser dépasser.Par ailleurs, les négociations, ont permis la prise en compte de nos propositions, dont plusieurs se retrouvent dans le texte : simplification du système de gestion des risques, meilleure protection des données personnelles, sensibilisation accrue des opérateurs des systèmes aux biais de l’informatique, bacs à sable rendus permanents dans les États membres pour favoriser l’innovation, volonté affichée de soutenir un écosystème européen de l’I.A., procédures simplifiées et exemptions pour les P.M.E.
Marina MESURE | La France Insoumise
Ce rapport consiste à réglementer la mise sur le marché et la mise en service des systèmes d’intelligence artificielle. Il ajoute un certain nombre de précautions importantes à la proposition de la Commission européenne, la plus importante étant l'interdiction de la reconnaissance biométrique à distance en temps réel. La reconnaissance biométique a posteriori est également interdite et ne peut être permise qu'à condition de recevoir une autorisation judiciaire. A cette victoire s'ajoute un ensemble d'autres avancées non négligeables comme l'interdiction du « grattage massif » et de la police prédictive. J'ai par conséquent voté en faveur de ce texte.
🚫 Aucune explication de vote
Geoffroy DIDIER | Les Républicains

– Madame la Présidente, l’encouragement, mais aussi la régulation de l’intelligence artificielle exigent des choix. Il y en a un qui n’est pas tout à fait anodin: celui concernant l’identification biométrique, c’est-à-dire concrètement la reconnaissance faciale. La droite demande que cette technologie puisse être utilisée dans certains cas précis et bien circonscrits: pour retrouver des enfants disparus, pour prévenir les actes terroristes et pour interpeller des auteurs d’infractions punissables d’au moins trois ans de prison. Plusieurs groupes politiques de gauche refusent de recourir à l’intelligence artificielle, alors qu’il s’agit ici de protéger des enfants, d’interpeller des criminels et de nous préserver du terrorisme.

Quand l’idéologie passe au-dessus de la sécurité, quand des postures de principe passent au-dessus de situations d’urgence, cela en dit beaucoup sur l’inconséquence de certains groupes politiques de cet hémicycle, ici, au Parlement européen. Ils devront s’expliquer devant les citoyens, car face à l’exigence absolue de protection des citoyens d’Europe, chacun doit prendre ses responsabilités.

Laurence FARRENG | Mouvement Démocrate

– Madame la Présidente, Madame la Vice-Présidente, chers collègues, l’Union européenne va faire cette semaine une avancée majeure. Nous sommes en effet la première institution et le premier continent au monde à poser des règles pour l’intelligence artificielle. Ce texte est ambitieux; il est le fruit de deux ans de travail de la Commission et du Parlement. Il a été remis sur le métier pour répondre aux bouleversements de l’IA générative, dont ChatGPT est un exemple. Il va établir des responsabilités pour les concepteurs et pour les fournisseurs en classifiant les risques, pour garantir à nos concitoyens des IA dignes de confiance, qui respectent nos valeurs. C’est un début.

Cette révolution doit nous amener à des réflexions presque philosophiques sur l’avenir de notre civilisation. En tant qu’humaniste, je demande une IA toujours encadrée par l’intelligence humaine. Il faut former à la maîtrise de ces outils pour innover et pour transformer nos emplois, et non pour les détruire. Nous devons rapidement disposer d’un cadre pour la création culturelle qui s’appuie sur les acquis de la directive sur le droit d’auteur et qui la complète, pour que la machine ne remplace jamais ce qu’il y a d’unique dans la sensibilité humaine et que les droits d’auteur soient préservés.

Philippe OLIVIER | Rassemblement national

– Madame la Présidente, la révolution numérique – et même la révolution cognitive – est en route, et nous soutenons la volonté de l’Union d’y apporter les régulations nécessaires. Pour autant, cette réponse normative n’est pas suffisante. Les spécialistes prévoient que la machine dépassera l’intelligence humaine en 2029 et qu’en 2045, elle sera un milliard de fois plus intelligente que tous les cerveaux humains.

L’Union européenne a raté tous les tournants technologiques des trente dernières années: le téléphone, l’IA, les nanotechnologies, l’espace ou encore la cyberdéfense. Le seul retard de notre continent en matière numérique et d’IA scelle peut-être son déclassement. Déclassement technologique et donc industriel, déclassement scientifique et donc économique, déclassement militaire et donc politique. Notre retard fait de nous des pays du tiers-monde numérique. Nous exportons nos matières premières et notre matière grise, et nous importons des produits numériques et des services à haute valeur ajoutée. Chaque jour qui passe rend le retard plus difficilement rattrapable. Cette défaillance signifie notre incapacité à maîtriser nos systèmes militaires, les objets connectés, nos centrales nucléaires, le trafic aérien et les voitures autonomes.

L’Union doit se ressaisir. Mais en est-elle capable, quand elle a adhéré à l’idéologie «décroissantiste» véhiculée par des Verts qui rêvent d’extinction? Comment l’Union européenne post-moderniste peut-elle aller vers le troisième millénaire quand elle se résigne à la vassalisation numérique et qu’elle a révoqué toute confiance dans la science et toute idée de progrès – parce que, finalement, elle a renoncé à l’idée même de puissance?

🚫 Aucune intervention en plénière