🇪🇺 Députés européens
🇫🇷 Députés français🗳 Voir le vote
🇪🇺 Députés européens
🇫🇷 Députés français🗳 Voir le vote
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
(10) Afin de garantir des conditions de concurrence équitables et une protection efficace des droits et libertés des citoyens dans toute l’Union
et à l’échelle internationale
, les règles établies par le présent règlement devraient s’appliquer de manière non discriminatoire aux fournisseurs de systèmes d’IA, qu’ils soient établis dans l’Union ou dans un pays tiers, et aux
utilisateurs
déployeurs
de systèmes d’IA établis dans l’Union.
Pour que l’Union reste fidèle à ses valeurs fondamentales, les systèmes d’IA destinés à être utilisés pour des pratiques considérées comme inacceptables par le présent règlement devraient également être considérés comme inacceptables en dehors de l’Union en raison de leur effet particulièrement néfaste sur les droits fondamentaux consacrés par la charte. Il convient donc d’interdire l’exportation de ces systèmes d’IA vers des pays tiers par des fournisseurs résidant dans l’Union.
Déposé par la commission compétente
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
c bis)aux fournisseurs qui mettent sur le marché ou mettent en service des systèmes d’IA visés à l’article 5 en dehors de l’Union, lorsque le fournisseur ou le distributeur de ces systèmes se situe dans l’Union;
Déposé par la commission compétente
1 ter)«risque significatif», un risque qui est significatif du fait de la combinaison de sa gravité, de son intensité, de sa probabilité d’occurrence et de la durée de ses effets, ainsi que de sa capacité à affecter une personne, une pluralité de personnes ou à affecter un groupe particulier de personnes;
Déposé par la commission compétente
d quinquies) la mise en service ou l’utilisation de systèmes d’IA pour l’analyse d’images enregistrées provenant d’espaces accessibles au public au moyen de systèmes d’identification biométrique à distance «postérieurs», à moins qu’ils ne soient soumis à une autorisation judiciaire préalable conformément au droit de l’Union et soient strictement nécessaires à la recherche ciblée liée à une infraction pénale grave spécifique, telle que définie à l’article 83, paragraphe 1 du TFUE, qui a déjà eu lieu, à des fins répressives.
Déposé par la commission compétente
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
5. Dans la mesure où cela est strictement nécessaire aux fins
de la surveillance,
de la détection et de la correction des biais
négatifs
en ce qui concerne les systèmes d’IA à haut risque, les fournisseurs de ces systèmes peuvent
exceptionnellement
traiter des catégories particulières de données à caractère personnel visées à l’article 9, paragraphe 1, du règlement (UE) 2016/679, à l’article 10 de la directive (UE) 2016/680 et à l’article 10, paragraphe 1, du règlement (UE) 2018/1725, sous réserve de garanties appropriées pour les droits et libertés fondamentaux des personnes physiques, y compris des limitations techniques relatives à la réutilisation ainsi que l’utilisation des mesures les plus avancées en matière de sécurité et de protection de la vie privée
, telles que la pseudonymisation, ou le cryptage lorsque l’anonymisation peut avoir une incidence significative sur l’objectif poursuivi
. En particulier, pour que ce traitement puisse avoir lieu, toutes les conditions suivantes s’appliquent: a) le traitement de données synthétiques ou anonymisées ne permet pas de satisfaire de manière efficace la détection et la correction des biais; b) Les données font l’objet d’une pseudonymisation; c) le fournisseur prend des mesures techniques et organisationnelles appropriées pour garantir que les données traitées aux fins du présent paragraphe sont sécurisées, protégées, soumises à des garanties appropriées, et que seules les personnes autorisées ont accès à ces données conformément à des obligations de confidentialité appropriées; d) les données traitées aux fins du présent paragraphe ne sont pas transmises, transférées ou consultées d’une autre manière par d’autres parties; e) les données traitées aux fins du présent paragraphe sont protégées par des mesures techniques et organisationnelles appropriées et supprimées une fois que le biais a été corrigé ou que la période de conservation de ces données personnelles a expiré; f) des mesures efficaces et appropriées sont en place pour garantir la disponibilité, la sécurité et la résilience des systèmes et des services de traitement face aux incidents techniques ou physiques; g) des mesures efficaces et appropriées sont en place pour garantir la sécurité physique des lieux où les données sont stockées et traitées, la gouvernance et la gestion des systèmes informatiques internes et des systèmes de sécurité informatique, et la certification des processus et des produits; Les fournisseurs ayant recours à cette disposition établissent une documentation expliquant pourquoi le traitement de catégories particulières de données à caractère personnel était nécessaire pour détecter et corriger les biais
.
Déposé par la commission compétente
2 bis.Les systèmes d’IA à haut risque sont conçus et développés avec les fonctionnalités d’enregistrement permettant l’enregistrement de la consommation d’énergie, la mesure ou le calcul de l’utilisation des ressources et l’incidence environnementale du système d’IA à haut risque pendant toutes les étapes du cycle de vie du système.
Déposé par la commission compétente
5 bis.Avant la mise en service ou l’utilisation d’un système d’IA à haut risque sur le lieu de travail, les déployeurs consultent les représentants des travailleurs en vue de parvenir à un accord conformément à la directive 2002/14/CE, et informent les employés concernés qu’ils seront soumis à l’utilisation du système.
Déposé par la commission compétente
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
Article 68 quater Droit à l’explication des décisions individuelles 1. Toute personne concernée faisant l’objet d’une décision prise par un déployeur sur la base du résultat d’un système d’IA à haut risque qui produit des effets juridiques les concernant ou les affectant de manière significative de façon similaire qu’elle considère comme ayant des conséquences négatives sur sa santé, sa sécurité, ses droits fondamentaux, son bien-être socioéconomique ou tout autre droit découlant des obligations énoncées dans le présent règlement, a le droit de demander au déployeur une explication claire et pertinente, conformément à l’article 13, paragraphe 1, du rôle du système d’IA dans la procédure décisionnelle, des principaux paramètres de la décision prise et des données d’entrée concernées. 2. Le paragraphe|1 ne s’applique pas à l’utilisation de systèmes d’IA pour lesquels des exceptions ou des restrictions à l’obligation prévue au paragraphe 1 découlent du droit de l’Union ou du droit national, dans la mesure où ces exceptions ou restrictions respectent l’essence des libertés et droits fondamentaux et constituent une mesure nécessaire et proportionnée dans une société démocratique. 3. Le présent article s’applique sans préjudice des articles 13, 14, 15 et 22 du règlement 2016/679.
Déposé par la commission compétente
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
b) les systèmes d’IA destinés à être utilisés par les autorités publiques compétentes
ou les organes ou organismes de l’Union, ou en leur nom,
pour évaluer des risques, y compris des risques pour la sécurité, des risques d’immigration irrégulière ou des risques pour la santé
,
,
posés par une personne physique qui a l’intention
d’entrer ou qui est entrée sur le territoire d’un État membre;
Déposé par la commission compétente
a ter)Les systèmes d’IA destinés à être utilisés par les plateformes de médias sociaux qui ont été désignées comme très grandes plateformes en ligne au sens de l’article 33 du règlement (UE) 2022/2065, dans leurs systèmes de recommandation afin de recommander au bénéficiaire du service les contenus générés par les utilisateurs disponible sur la plateforme.
Déposé par la commission compétente
d bis) la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA par les autorités compétentes en matière d’asile, de migration ou de gestion des frontières ou en leur nom, afin de dresser le profil d’une personne ou d’évaluer si une personne qui a l’intention d’entrer ou est déjà entrée sur le territoire d’un État membre pourrait constituer une menace, y compris une menace pour la sécurité intérieure ou la santé publique, sur la base de données personnelles ou sensibles, connues ou présumées;
Déposé par des députés dont Sylvie GUILLAUME (PS), Pascal DURAND (RE) et Gwendoline DELBOS-CORFIELD (EELV)
d ter) la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA par des autorités compétentes, ou pour leur compte, en matière de gestion de l’asile, de la migration et de la gestion des frontières, afin de prévoir ou de prédire les déplacements individuels ou collectifs relatifs au franchissement des frontières;
Déposé par des députés dont Sylvie GUILLAUME (PS), Pascal DURAND (RE) et Gwendoline DELBOS-CORFIELD (EELV)
-1 Le présent règlement repose sur le principe qu’il incombe aux développeurs, aux importateurs, aux distributeurs et aux utilisateurs en aval de veiller à développer, à mettre sur le marché ou à utiliser l’intelligence artificielle qui n’a pas d’effets nocifs pour la santé, la sécurité, les droits fondamentaux et l’environnement. Ses dispositions s’appuient sur le principe de précaution.
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
1 bis) «risque important», un risque conséquent par sa gravité, son intensité, sa probabilité d’occurrence, la durée de ses effets, sa capacité à affecter une ou des personnes ou un groupe particulier de personnes, ou une combinaison de ces facteurs;
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
2. L’utilisation de systèmes d’identification biométriques à distance
en «temps réel»
dans des espaces accessibles au public
à des fins répressives en vue de la réalisation de l’un des objectifs énumérés au paragraphe 1, point d), tient compte des éléments suivants:
;
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
2 bis. la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA par les autorités compétentes ou pour leur compte en matière de gestion de la migration, de l’asile et des contrôles aux frontières, afin de surveiller ou de traiter des données dans le cadre d’activités de gestion des frontières afin de reconnaître ou de détecter des objets et des personnes physiques, de dresser le profil d’une personne ou d’évaluer si une personne physique, qui a l’intention d’entrer ou est entrée sur le territoire d’un État membre, peut présenter un risque, y compris un risque de menace pour la sécurité intérieure, la migration irrégulière ou la santé publique, sur la base de données personnelles ou sensibles, connues ou présumées;
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
2 ter. les systèmes d’IA qui sont ou peuvent être utilisés pour la détection de la présence d’une personne sur des lieux de travail, dans des environnements éducatifs ainsi que dans le cadre de la surveillance des frontières, y compris dans les versions virtuelles ou en ligne de ces espaces, sur la base de leurs données biométriques ou fondées sur la biométrie;
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
2 quater. la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA par des autorités compétentes en matière de gestion de la migration, de l’asile et des contrôles aux frontières, ou pour leur compte, pour prévoir ou prédire les déplacements des personnes dans le but, ou de toute manière raisonnablement prévisible, d’interdire, de restreindre ou d’empêcher la migration ou le franchissement des frontières;
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
2. Outre les systèmes d’IA à haut risque visés au paragraphe 1, les systèmes d’IA
visés à l’annexe III
sont également considérés comme à haut risque
, s’ils représentent un risque important pour la santé humaine, la sécurité ou les droits fondamentaux. Les systèmes énumérés à l’annexe III sont présumés présenter un risque élevé
.
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
5 bis. Avant la mise en service ou l’utilisation d’un système d’IA à haut risque sur le lieu de travail, les employeurs signent, après consultation, un accord avec les représentants des travailleurs conformément à la directive 2001/14/CE, la directive 2009/38/CE [comité d’entreprise européen] ou la directive 2001/86/CE [société européenne]et informent les employés concernés qu’ils seront soumis au système.
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
Article 68 bis Représentation Représentation des personnes physiques et droit des organisations de défense de l’intérêt général à introduire une réclamation auprès d’une autorité de contrôle nationale 1. Les personnes physiques qui considèrent que le système d’IA qui les concerne enfreint le présent règlement ont le droit de mandater une organisation d’intérêt public, à savoir tout organisme, organisation ou association à but non lucratif, dûment constitué conformément au droit d’un État membre et poursuivant des objectifs statutaires d’intérêt public, pour déposer en leur nom une réclamation visée à l’article 68 bis auprès d’une autorité nationale compétente et pour les représenter dans l’accès au recours juridictionnel visé à l’article 68 ter et pour les représenter devant la juridiction. 2. Les organisations de défense de l’intérêt général ont le droit d’introduire des réclamations auprès des autorités nationales compétentes, indépendamment du fait qu’elles aient été mandatées ou non par la personne physique concernée, lorsqu’elles considèrent qu’un système d’IA a été mis sur le marché, mis en service ou utilisé en infraction avec le présent règlement ou qu’il porte atteinte aux droits fondamentaux.
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
Article 68 ter Droit à l’explication des décisions individuelles Toute personne faisant l’objet d’une décision prise par un déployeur sur la base du résultat d’un système d’IA qui produit des effets juridiques ou affecte cette personne d’une manière qu’elle considère comme des conséquences négatives sur sa santé, sa sécurité, ses droits fondamentaux, son bien-être socioéconomique ou tout autre droit découlant des obligations énoncées dans le présent règlement, a le droit de demander au déployeur une explication claire et pertinente, conformément à l’article 13, paragraphe 1, du rôle du système d’IA dans la procédure décisionnelle, des principaux paramètres de la décision prise et des données d’entrée concernées.
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
Les systèmes d’IA à haut risque au sens de l’article 6, paragraphe 2
,
sont les systèmes d’IA répertoriés dans l’un des domaines suivants
, utilisés ou dont on peut raisonnablement prévoir qu’ils seront utilisés pour
:
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
5 ter. Dispositions en matière de contrôle humain ;
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
5 bis. le cas échéant, les catégories de personnes physiques et de groupes qui pourraient ou devraient être touchées;
Déposé par GUE/NGL (🇫🇷 : La France Insoumise, Gauche républicaine et socialiste)
(2 bis) L’intelligence artificielle déjà développée et mise en œuvre offre un immense potentiel pour divers secteurs de l’économie et pour résoudre les difficultés quotidiennes des citoyens. Elle est l’occasion unique d’accroître la productivité, la prospérité, le confort de la vie et le bien-être au travail, elle peut avoir une incidence positive considérable sur la manière de résoudre les défis sociétaux, d’améliorer les soins de santé, les services publics et privés, les transports et les processus de fabrication, et de réduire les coûts et les formalités administratives de la transition écologique en renforçant l’efficacité des processus décisionnels et d’allocation des ressources. Le développement et l’actualisation permanente de systèmes d’intelligence artificielle fiables sont par conséquent essentiels pour maintenir et accroître la compétitivité des entreprises de l’Union et préserver la compétitivité du marché intérieur à l’échelle mondiale. Compte tenu des immenses possibilités offertes par l’intelligence artificielle et de l’émergence de tensions internationales, le cadre réglementaire devrait soigneusement équilibrer les obligations afin de garantir la plus grande valeur ajoutée de cette technologie sans en ralentir le développement.
Déposé par ECR
3. Le présent règlement ne s’applique pas aux systèmes d’IA
développés ou
conçus, développés, modifiés,
utilisés exclusivement à des fins militaires.
Déposé par ECR
i) le traitement préférentiel, préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l’origine;
Déposé par ECR
ii) le traitement
préférentiel,
préjudiciable ou défavorable de certaines personnes physiques ou de groupes
entiers
de personnes physiques, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci;
Déposé par ECR
2 bis. Le cas échéant, en fonction de l’échelle et du type de déploiement des points finaux, les systèmes d’IA à haut risque sont conçus et développés avec les fonctionnalités de journalisation permettant de calculer leur consommation d’énergie, l’utilisation de leurs ressources et leur empreinte environnementale à toutes les étapes du cycle de vie du système.
Déposé par ECR
Article 28 bis Obligations du fournisseur d’un modèle de fondation 4 bis (nouveau). Le résumé visé au paragraphe 4, point c), est soumis à l’exclusion de toute donnée protégée par des droits de protection intellectuelle ou constituant un secret d’affaires.
Déposé par ECR
2. Au plus tard le [trois ans après la date d’application du présent règlement visée à l’article 85, paragraphe 2] et tous les quatre ans par la suite, la Commission présente au Parlement européen et au Conseil un rapport détaillé sur l’évaluation et le réexamen du présent règlement. Les rapports sont publiés.
Déposé par ECR
3 bis. Outre les exigences prévues au paragraphe 3, les rapports visés au paragraphe 2 comprennent spécifiquement: a) une évaluation visant à déterminer si, et comment, le présent règlement a contribué à faciliter le développement et le déploiement de produits et de services d’intelligence artificielle dans l’Union, y compris les logiciels libres, leur tarification, leur adaptation par les entreprises, la protection des droits fondamentaux, ainsi qu’un résumé des effets positifs et négatifs sur les consommateurs et les entreprises, en particulier sur les petites et moyennes entreprises, et les niveaux d’investissement dans l’innovation en matière d’intelligence artificielle dans l’Union. La Commission devrait rédiger son rapport dans le contexte des tendances internationales dans ce domaine et analyser en particulier l’incidence des dispositions suivantes: i) l’article 4 bis, l’article 6, paragraphes 2 et 2 bis, l’article 10, l’article 12, paragraphe 2 bis, l’article 28, l’article 28 ter, l’article 29, l’article 29 bis et l’article 56 ter; ii) l’annexe III, point 8 a ter, et l’annexe IV, point 3 ter.
Déposé par ECR
8 bis) les systèmes d’IA destinés à être utilisés par le système de recommandation de plateformes de réseaux sociaux désignées comme très grandes plateformes en ligne au sens de l’article 33 du règlement (UE) 2022/2065, et visant à recommander aux utilisateurs du contenu généré par d’autres utilisateurs de la plateforme, à moins que cette très grande plateforme ne respecte déjà l’article 34, paragraphes 1 et 2 du règlement (UE) 2022/2065.
Déposé par ECR
(18 bis) Dans certaines situations exceptionnelles, dont la portée et la durée sont limitées, les risques que présentent les systèmes d’identification biométrique à distance en temps réel pour la reconnaissance des personnes physiques dans des espaces accessibles au public, pour les droits et libertés des personnes concernées pourraient être compensés et dépassés par les avantages substantiels qu’ils présentent pour la société et les personnes et en particulier la sécurité et la vie des enfants. C’est particulièrement pertinent dans les situations qui concernent la recherche d’enfants disparus ou d’autres personnes, ou des activités visant à prévenir un attentat terroriste imminent ou une menace pour la vie. Dans ces cas spécifiques, et uniquement avec l’accord préalable de l’autorité judiciaire ou de l’autorité administrative indépendante d’un État membre et sous réserve d’autres garanties opérationnelles, l’utilisation de systèmes d’identification biométrique à distance en temps réel pourrait être autorisée. Toute utilisation de ce type devrait respecter strictement les garanties et conditions nécessaires et proportionnées qui s’y rapportent, notamment en ce qui concerne les limites temporelles, géographiques et personnelles.
Déposé par PPE (🇫🇷 : Les Républicains, Les centristes)
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
🔜 Vote par division : aperçu bientôt disponible
(17) Les systèmes d’IA permettant la notation sociale des personnes physiques à des fins générales par les autorités publiques ou pour le compte de celles-ci peuvent conduire à des résultats discriminatoires et à l’exclusion de certains groupes. Ils peuvent porter atteinte au droit à la dignité et à la non-discrimination et sont contraires aux valeurs d’égalité et de justice. Ces systèmes d’IA évaluent ou classent la fiabilité des personnes physiques en fonction de leur comportement social dans plusieurs contextes ou de caractéristiques personnelles ou de personnalité connues ou prédites. La note sociale obtenue à partir de ces systèmes d’IA peut conduire au traitement préjudiciable ou défavorable de personnes physiques ou de groupes entiers dans des contextes sociaux qui sont dissociés du contexte dans lequel les données ont été initialement générées ou collectées, ou à un traitement préjudiciable disproportionné ou injustifié au regard de la gravité de leur comportement social. Il convient donc d’interdire de tels systèmes d’IA en toutes circonstances .
Déposé par ID (🇫🇷 : Rassemblement national)
c) la mise sur le marché, la mise en service ou l’utilisation, par les pouvoirs publics ou pour leur compte, de systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes physiques au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues ou prédites
, la note sociale conduisant à l’une ou l’autre des situations suivantes, ou aux deux:
.
Déposé par ID (🇫🇷 : Rassemblement national)
4 bis. Les systèmes d’IA faisant l’objet des mesures énoncées au paragraphe 3 obligent, dès leur conception, les personnes exerçant une supervision humaine à contrôler et à valider les résultats générés par le système tout en ayant la possibilité d’ignorer, de passer outre ou d’inverser les résultats.
Déposé par ID (🇫🇷 : Rassemblement national)
4 ter. L’utilisateur final d’un système d’IA à haut risque est informé de l’origine humaine ou de l’approbation humaine de toute décision prise à son égard et, le cas échéant, demande un réexamen de la décision par un être humain uniquement.
Déposé par ID (🇫🇷 : Rassemblement national)
– Madame la Présidente, l’encouragement, mais aussi la régulation de l’intelligence artificielle exigent des choix. Il y en a un qui n’est pas tout à fait anodin: celui concernant l’identification biométrique, c’est-à-dire concrètement la reconnaissance faciale. La droite demande que cette technologie puisse être utilisée dans certains cas précis et bien circonscrits: pour retrouver des enfants disparus, pour prévenir les actes terroristes et pour interpeller des auteurs d’infractions punissables d’au moins trois ans de prison. Plusieurs groupes politiques de gauche refusent de recourir à l’intelligence artificielle, alors qu’il s’agit ici de protéger des enfants, d’interpeller des criminels et de nous préserver du terrorisme.
Quand l’idéologie passe au-dessus de la sécurité, quand des postures de principe passent au-dessus de situations d’urgence, cela en dit beaucoup sur l’inconséquence de certains groupes politiques de cet hémicycle, ici, au Parlement européen. Ils devront s’expliquer devant les citoyens, car face à l’exigence absolue de protection des citoyens d’Europe, chacun doit prendre ses responsabilités.
– Madame la Présidente, Madame la Vice-Présidente, chers collègues, l’Union européenne va faire cette semaine une avancée majeure. Nous sommes en effet la première institution et le premier continent au monde à poser des règles pour l’intelligence artificielle. Ce texte est ambitieux; il est le fruit de deux ans de travail de la Commission et du Parlement. Il a été remis sur le métier pour répondre aux bouleversements de l’IA générative, dont ChatGPT est un exemple. Il va établir des responsabilités pour les concepteurs et pour les fournisseurs en classifiant les risques, pour garantir à nos concitoyens des IA dignes de confiance, qui respectent nos valeurs. C’est un début.
Cette révolution doit nous amener à des réflexions presque philosophiques sur l’avenir de notre civilisation. En tant qu’humaniste, je demande une IA toujours encadrée par l’intelligence humaine. Il faut former à la maîtrise de ces outils pour innover et pour transformer nos emplois, et non pour les détruire. Nous devons rapidement disposer d’un cadre pour la création culturelle qui s’appuie sur les acquis de la directive sur le droit d’auteur et qui la complète, pour que la machine ne remplace jamais ce qu’il y a d’unique dans la sensibilité humaine et que les droits d’auteur soient préservés.
– Madame la Présidente, la révolution numérique – et même la révolution cognitive – est en route, et nous soutenons la volonté de l’Union d’y apporter les régulations nécessaires. Pour autant, cette réponse normative n’est pas suffisante. Les spécialistes prévoient que la machine dépassera l’intelligence humaine en 2029 et qu’en 2045, elle sera un milliard de fois plus intelligente que tous les cerveaux humains.
L’Union européenne a raté tous les tournants technologiques des trente dernières années: le téléphone, l’IA, les nanotechnologies, l’espace ou encore la cyberdéfense. Le seul retard de notre continent en matière numérique et d’IA scelle peut-être son déclassement. Déclassement technologique et donc industriel, déclassement scientifique et donc économique, déclassement militaire et donc politique. Notre retard fait de nous des pays du tiers-monde numérique. Nous exportons nos matières premières et notre matière grise, et nous importons des produits numériques et des services à haute valeur ajoutée. Chaque jour qui passe rend le retard plus difficilement rattrapable. Cette défaillance signifie notre incapacité à maîtriser nos systèmes militaires, les objets connectés, nos centrales nucléaires, le trafic aérien et les voitures autonomes.
L’Union doit se ressaisir. Mais en est-elle capable, quand elle a adhéré à l’idéologie «décroissantiste» véhiculée par des Verts qui rêvent d’extinction? Comment l’Union européenne post-moderniste peut-elle aller vers le troisième millénaire quand elle se résigne à la vassalisation numérique et qu’elle a révoqué toute confiance dans la science et toute idée de progrès – parce que, finalement, elle a renoncé à l’idée même de puissance?