L’intelligence artificielle en droit pénal et son utilisation par les autorités policières et judiciaires dans les affaires pénales

Procédure terminée

📌 Votes principaux

👍 Proposition de résolution
✅️ Adopté

🇪🇺 Députés européens

377
248
62

🇫🇷 Députés français🗳 Voir le vote

48
31
Parmi 79 députés, 79 ont votés.
5 octobre 2021

📚 Sources

🗃️ Données

📝 Amendement n°1 ❌️ Rejeté

24. note que la police prédictive fait partie des applications d’IA utilisées dans le domaine répressif, mais attire l’attention sur le fait que, si elle permet d’analyser des séries de données en vue de l’identification de modèles et corrélations, elle ne peut répondre à la question de la causalité et prédire de manière fiable le comportement des personnes, et ne peut donc pas constituer à elle seule une base d’intervention; souligne que plusieurs villes des États-Unis ont cessé d’utiliser leurs systèmes de police prédictive à la suite d’audits; rappelle que, lors de la mission de la commission LIBE aux États- Unis en février 2020, les services de police de New York et de Cambridge (Massachusetts) ont indiqué qu’ils avaient progressivement abandonné leurs programmes de police prédictive, en raison de leur manque d’efficacité, de leur effet discriminatoire et de leur échec dans la pratique, au profit de la police de proximité; observe que ce changement a entraîné une baisse du taux de criminalité; s’oppose invite dès lors à ce que les autorités répressives les autorités répressives à faire preuve de la plus grande prudence lorsqu’elles utilisent l’IA pour prédire le comportement de personnes ou de groupes en se fondant sur des données historiques et les comportements passés, l’appartenance à un groupe, la localisation ou toute autre caractéristique de ce type, en tentant ainsi d’identifier les personnes susceptibles de commettre une infraction; souligne que ces outils ne devraient être utilisés que lorsque toutes les garanties nécessaires auront été mises en place pour éliminer les préjugés existants; invite les États membres et les autorités répressives à surveiller en permanence les effets, la nécessité et les éventuelles conséquences négatives de ces outils; souligne que ces outils ne peuvent être utilisés que comme des aides et ne peuvent être le seul élément sur lequel s’appuient les services répressifs; invite toutefois la Commission et les États membres à soutenir les environnements d’essai et les projets pilotes pour permettre la poursuite du développement et l’amélioration de ces outils en vue de les rendre plus solides et précis;

Déposé par des députés dont aucun français

🔗 Voir la source

📝 Amendement n°2 ❌️ Rejeté

27. demande toutefois un moratoire sur estime que les normes techniques pour le déploiement des systèmes de reconnaissance faciale à des fins répressives destinés à l’identification, à moins qu’ils ne soient utilisés qu’aux fins de l’identification des victimes de la criminalité, jusqu’à ce que les normes techniques puissent être considérées comme pleinement respectueuses des droits fondamentaux, par les autorités répressives aux fins de l’identification devraient être encore améliorées pour assurer le respect des droits fondamentaux, en particulier pour veiller à ce que les résultats obtenus ne soient ni biaisés, ni discriminatoires , que le cadre juridique offre des garanties strictes contre les utilisations abusives ainsi qu’un contrôle et une surveillance démocratiques rigoureux, et que la nécessité et la proportionnalité du déploiement de ces technologies soient prouvées de manière empirique; relève que lorsque les critères susmentionnés ne sont pas remplis, les systèmes ne devraient pas être utilisés ou déployés ; demande à la Commission et aux États membres de faire preuve d’une extrême prudence lorsqu’ils autorisent les services répressifs à utiliser des applications de reconnaissance faciale et d’exiger une autorisation judiciaire préalable; souligne qu’il convient de renforcer encore la surveillance et le contrôle démocratiques afin que ces technologies ne soient utilisées que lorsque cela est nécessaire et proportionné; met en particulier l’accent sur le rôle important des systèmes de reconnaissance faciale dans l’identification des victimes ;

Déposé par des députés dont aucun français

🔗 Voir la source

📝 Amendement n°3 ❌️ Rejeté

31. manifeste sa vive inquiétude quant aux projets de recherche financés dans le cadre d’Horizon 2020 qui déploient l’intelligence artificielle aux frontières extérieures, tels que le projet iBorderCtrl, un «système intelligent de détection de mensonges» qui a été testé en Hongrie, en Lettonie et en Grèce, et qui établit le profil des voyageurs sur la base d’un entretien automatisé réalisé par webcam avant le voyage et d’une analyse de 38 micro-gestes fondée sur l’intelligence artificielle; invite donc la Commission à mettre en œuvre, par des moyens législatifs et non législatifs et, au besoin, par le biais de procédures d’infraction, l’interdiction de tout traitement du traitement des données biométriques, y compris des images faciales, à des fins répressives conduisant à une surveillance de masse dans les espaces accessibles au public , sauf si et dans la mesure où son utilisation est strictement nécessaire pour des objectifs très spécifiques tels qu’une recherche ciblée des victimes de la criminalité ou la prévention d’un attentat terroriste ou d’une autre menace imminente pour la vie ou l’intégrité physique d’une personne; souligne qu’une autorisation judiciaire préalable est indispensable et que le traitement de ces données doit être limité dans l’espace et dans le temps ; invite en outre la Commission à mettre un terme au financement de la recherche ou du déploiement de données biométriques ou de programmes susceptibles de donner contribuant ou donnant lieu à une surveillance de masse dans les espaces publics , qui n’est pas conforme aux conditions fixées dans le droit de l’Union et le droit national applicables ; souligne, dans ce contexte, qu’il y a lieu d’accorder une attention particulière et d’appliquer un cadre strict à l’utilisation de drones dans les opérations de police;

Déposé par des députés dont aucun français

🔗 Voir la source

🚫 Aucun amendement
Nicolas BAY | Rassemblement national
. – Ce texte qui prétend encadrer l’utilisation de l’intelligence artificielle par les forces de police et la justice est en réalité une charge contre ces dernières. Les accusant de tous les maux, ce rapport prétend limiter l’utilisation de l’IA pour des raisons idéologiques qui mènent à un dangereux laxisme. J’ai donc voté contre.
Dominique BILDE | Rassemblement national
J'ai voté contre cette résolution.Certes, l'intelligence artificielle peut conduire à certains travers. Pour autant, on ne saurait s'associer à certains points excessifs de ce texte, notamment la dénonciation du «racisme des forces de police».
Geoffroy DIDIER | Les Républicains
Le présent rapport vise à traiter les questions soulevées par l’utilisation de l’IA dans le droit pénal et son utilisation par les autorités policières et judiciaires en matière pénale. Ce texte demande de réduire fortement le recours à l’intelligence artificielle et même d’interdire certains usages, notamment le recours à la reconnaissance faciale dans les espaces publics, y compris dans des situations exceptionnelles. Considérant que les menaces auxquelles nos sociétés font face sont de plus en plus grandes et sophistiquées, nous ne pouvons pas nous priver de l’usage de technologies poussées pour y faire face, d’autant plus que les citoyens de l’Union sont de plus en plus exigeants en matière de sécurité. J’ai donc voté contre ce texte.
Brice HORTEFEUX | Les Républicains
J’ai voté contre ce rapport dont la mouture ne répond pas aux exigences de sécurité réclamées par les citoyens. Une fois encore, la gauche caricature les autorités policières et judiciaires en estimant que l’introduction de l’intelligence artificielle avec la reconnaissance faciale et la police prédictive conduirait à une surveillance de masse. Le rapport interdit même l’utilisation des données biométriques comme les images faciales captées dans les lieux publics sans aucune exception possible.En somme, si les ennemis de nos démocraties inventent des instruments toujours plus sophistiqués pour menacer nos États, nos forces de police et la justice ne devraient en revanche pas être armées pour les combattre!Comme le groupe PPE, je soutiens qu’il est essentiel de garantir le plus strict encadrement de ces outils technologiques et de réduire notre dépendance technologique aux pays tiers. Mais l’utilisation de la reconnaissance faciale dans les espaces publics dans des situations exceptionnelles, par exemple après un attentat terroriste, devrait être permise pour renforcer nos moyens de lutte contre le terrorisme et la haute criminalité.
France JAMET | Rassemblement national
Si des précautions sont évidemment nécessaires pour encadrer l’utilisation de l’intelligence artificielle pour la police et la justice, le but de ce rapport est bien de diviser la société en catégories et de s’attaquer à nos forces de l’ordre. Il met par ailleurs en danger nos concitoyens par sa vision laxiste. Ce texte est par conséquent contraire à l’état de droit, je m’y suis opposée.
Fabienne KELLER | Renaissance
Ce rapport d’initiative du Parlement porte sur l’utilisation de l’intelligence artificielle par les autorités judiciaires et policières. Ces outils permettent de mieux répondre aux nouveaux enjeux de sécurité, comme le terrorisme ou les menaces hybrides, et à la transformation de notre société avec le numérique. Le rapport souligne les atouts de l’intelligence artificielle dans les enquêtes criminelles, et mentionne également les risques possibles de biais et d’atteintes aux droits fondamentaux.Convaincue des bénéfices potentiels de l’intelligence artificielle dans la lutte contre la criminalité en Europe, j’ai voté en faveur d’un amendement proposant de supprimer le moratoire inscrit dans le rapport. À l’inverse, je soutiens le recours à l’intelligence artificielle, telle que la reconnaissance faciale, dans le contexte d’un encadrement strict : autorisation au préalable d’un juge, usage limité et proportionné, transparence dans les outils, contrôle parlementaire.Bien que cet amendement fut rejeté, j’ai souhaité soutenir le rapport final qui comporte de nombreux éléments importants pour encadrer l'utilisation de l'intelligence artificielle dans le contexte pénal.Il est essentiel que l’Union européenne se dote d’un cadre réglementaire et éthique sur l’utilisation de l’intelligence artificielle pour protéger les citoyens européens et influer sur le développement de règles au niveau international.
Gilles LEBRETON | Rassemblement national
J’ai voté contre ce rapport car il n’a pour objectif que de critiquer les forces de police et de promouvoir une vision laxiste du maintien de l’ordre. Très loin du sujet initial de l’intelligence artificielle, il instrumentalise par exemple l’affaire George Floyd pour demander des plans nationaux de lutte contre le racisme dans la police et la justice.
Emmanuel MAUREL | Gauche républicaine et socialiste
Ce rapport s’intéresse à l'utilisation de l’intelligence artificielle par les autorités policières et judiciaires. Il souligne le potentiel néfaste de ces technologies en constatant les failles déjà observées sur le terrain. Le rapport plaide pour un encadrement strict de leur utilisation et prend fermement position contre le développement de la justice prédictive. Le rapport appelle à réglementer au niveau de l’Union l’utilisation de l’intelligence artificielle par les autorités. Cela semble indispensable à la protection des droits et libertés fondamentaux protégées par le droit européen. Des propositions sont formulées pour garantir la transparence de ces technologies, notamment de leur financement et de leurs algorithmes. Les dangers mis en avant sont bien réels: ces technologies sont déjà largement utilisées dans certains États membres. Nous devons pouvoir contrôler ces utilisations et prendre des précautions importantes afin d’éviter les dérives, j’ai donc voté en faveur de ce rapport.
Nadine MORANO | Les Républicains
J’ai voté contre ce rapport sur l’intelligence artificielle en droit pénal et son utilisation par les autorités policières et judiciaires dans les affaires pénales. Le texte présentait des dispositions inacceptables susceptibles d’affaiblir le niveau de sécurité auquel les citoyens européens ont légitimement droit : demande d’un moratoire sur le déploiement des systèmes de reconnaissance faciale, suggestion d’interdire de manière absolue les outils de police prédictive, etc. Pour ma part, je suis favorable à la mise en œuvre prudente et progressive de ces différentes technologies dans le respect des droits fondamentaux. Je ne pouvais donc soutenir ce rapport qui préconise leur interdiction de principe pour des raisons purement idéologiques.
Manon AUBRY | La France Insoumise
Ce rapport vise à présenter les observations et les recommandations du Parlement européen pour encadrer l’utilisation de l’intelligence artificielle par les autorités policières ou judiciaires. Il alerte notamment à raison sur le risque de discriminations découlant du recours aux algorithmes et aux technologies d’apprentissage automatique, l'asymétrie de pouvoir entre ceux qui emploie les technologies d’intelligence artificielle et ceux qui y sont soumis ou la pente dangereuse de l’utilisation de prédictions comportementales pour cibler des individus ou des groupes particuliers. J’ai donc voté pour ce texte qui établit des constats pertinents et souligne la nécessité d’encadrer précisément le recours à l’intelligence artificielle par la police et la justice.
Manuel BOMPARD | La France Insoumise
Ce rapport s’intéresse à l’utilisation de l’intelligence artificielle par les autorités policières et judiciaires dans les affaires pénales. Il s’agit là d’un sujet majeur dont l’importance ne va cesser de croître au cours des prochaines années. Plusieurs tendances préoccupantes nous indiquent que nous nous dirigeons, si nous n’y prenons garde, vers une société de la surveillance généralisée, notamment par le recours aux technologies de reconnaissance faciale et de reconnaissance biométrique à distance. C’est pourquoi ce rapport demande l’interdiction permanente de la reconnaissance automatisée des individus dans les espaces publics. Par ailleurs, afin de garantir le respect des droits fondamentaux lorsque ces technologies d’intelligence artificielle sont utilisées, le texte exige que les algorithmes soient transparents, traçables et suffisamment documentés. Enfin, le rapport demande l’interdiction des bases de données privées de reconnaissance faciale. Il s’agit donc d’un texte très satisfaisant que je soutiens.
Jérôme RIVIÈRE | Rassemblement national
Ce texte prend le prétexte de l'intelligence artificielle pour imposer une vision laxiste de la sécurité. J'ai voté contre.
Nathalie COLIN-OESTERLÉ | Les centristes
J’ai voté contre le texte portant sur l’utilisation de l’intelligence artificielle en droit pénal. Si le texte adopté souligne à juste titre la nécessité de protéger les droits fondamentaux et les données à caractère personnel dans le cadre de l’utilisation des systèmes d’intelligence artificielle, il n’est cependant pas équilibré. En effet, en appelant à l’interdiction de la reconnaissance automatique pour le contrôle aux frontières ou dans les espaces publics, le rapport néglige les avantages que l’on peut tirer de l’intelligence artificielle en matière pénale. Certains systèmes, comme la reconnaissance faciale, permettent de prévenir et de lutter plus efficacement contre la criminalité organisée et le terrorisme.
Jean-Paul GARRAUD | Rassemblement national
. – J’ai voté contre ce rapport car si des précautions sont évidemment nécessaires pour encadrer l’utilisation de l’intelligence artificielle en matières policière et judiciaire, le but de ce rapport n’est pas celui-ci mais bien de diviser la société en catégories et de s’attaquer à nos forces de police. Il met par ailleurs en danger nos concitoyens par sa vision laxiste.
Virginie JORON | Rassemblement national
Si des précautions sont évidemment nécessaires pour encadrer l’utilisation de l’intelligence artificielle en matières policière et judiciaire, le but de ce rapport n’est pas celui-ci mais bien de diviser la société en catégories et de s’attaquer à nos forces de police. Il met par ailleurs en danger nos concitoyens par sa vision laxiste. Ce texte est par conséquent contraire à l’état de droit. J’ai voté contre.
Catherine GRISET | Rassemblement national
. – J’ai voté contre ce rapport car il n’a pour objectif que de critiquer les forces de police et de promouvoir une vision laxiste du maintien de l’ordre. Très loin du sujet initial de l’intelligence artificielle, il instrumentalise par exemple l’affaire George Floyd pour demander des plans nationaux de lutte contre le racisme dans la police et la justice.
Hélène LAPORTE | Rassemblement national
L’IA est l’une des priorités principales de l’actuelle Commission. Sa présidente a annoncé dans ses orientations politiques une approche européenne coordonnée relative aux implications humaines et éthiques de l’intelligence artificielle. Cette initiative législative, si elle souligne quelques bienfaits de l’intelligence artificielle, cite surtout ses prétendues atteintes graves aux droits fondamentaux. Elle indique ainsi que les applications de l’IA ont réduit les chances des communautés racialisées et amplifié les discriminations existantes pour certaines communautés ethniques, ou LGBTI. Le rapport utilise l’affaire George Floyd et des « exemples du racisme des forces de police » pour appeler à la mise en place de plans d’action nationaux contre le racisme dans le domaine de la police et de la justice. Il veut également limiter de manière draconienne l’utilisation de données biométriques dans les aéroports malgré leur efficacité. Si des précautions sont évidemment nécessaires pour encadrer l’utilisation de l’intelligence artificielle en matière policière et judiciaire, le but de ce rapport n’est pas celui-ci mais bien de diviser la société en catégories et de s’attaquer à nos forces de police. Il met par ailleurs en danger nos concitoyens par sa vision laxiste. Ce texte étant contraire à l’état de droit, J’ai donc voté contre ce texte.
Aurélia BEIGNEUX | Rassemblement national
L’intelligence artificielle est l’une des priorités principales de l’actuelle Commission. Sa présidente, Ursula von der Leyen, a annoncé dans ses orientations politiques une approche européenne coordonnée relative aux implications humaines et éthiques de l’intelligence artificielle (IA).Ce texte exige l’explicabilité et la transparence des algorithmes, la traçabilité et la réalisation d’analyses d’impact obligatoires sur les droits fondamentaux avant la mise en œuvre ou le déploiement de tout système d’IA.Si des précautions sont évidemment nécessaires pour encadrer l’utilisation de l’intelligence artificielle en matière policière et judiciaire, le but de ce rapport n’est pas celui-ci mais bien de diviser la société en catégories et de s’attaquer à nos forces de police. Il met par ailleurs en danger nos concitoyens par sa vision laxiste. Ce texte est par conséquent contraire à l’état de droit.Je vote donc contre.
Mathilde ANDROUËT | Rassemblement national
Pour encadrer l’utilisation de l’intelligence artificielle, des précautions sont bien évidemment nécessaires en matières policière et judiciaire. Mais le but de ce rapport n’est pas celui-ci, mais plutôt de diviser la société en catégories et de s’attaquer à nos forces de police. Il met par ailleurs en danger nos concitoyens par sa vision laxiste. J’ai voté contre.
🚫 Aucune explication de vote
Fabienne KELLER | Renaissance

– Monsieur le Président, Madame la Commissaire, mes chers collègues, les domaines policiers et judiciaires n’échappent pas aux évolutions technologiques et parmi celles-ci, l’intelligence artificielle est une technologie nouvelle et puissante.

L’utilisation de cet outil s’est révélée être un réel atout dans le cadre de certaines enquêtes criminelles, de la lutte contre le terrorisme ou du contrôle des frontières. Ainsi, dans l’affaire terrifiante des attentats de Paris du 13 novembre 2015, c’est en partie grâce à cette technique de l’intelligence artificielle et de la reconnaissance faciale que les enquêteurs ont pu identifier, localiser et arrêter les terroristes présumés.

Cependant, son utilisation doit bien sûr se faire dans le cadre d’un contrôle strict. En effet, son usage doit être limité et proportionné, et toujours être accompagné de supervision humaine. Il doit y avoir un vrai travail de transparence quant aux technologies utilisées, ainsi qu’un contrôle démocratique et surtout judiciaire dans son utilisation, permettant d’éviter tout biais et d’assurer le respect des droits fondamentaux.

Chers collègues, l’utilisation de l’intelligence artificielle dans les affaires pénales peut être un atout pour les enquêtes criminelles et pour la justice européenne. Ne nous en privons pas, dans le respect des libertés fondamentales.

Jean-Lin LACAPELLE | Rassemblement national

Ainsi, en matière policière et judiciaire, là où l’informatique peut permettre des progrès décisifs pour la sécurité de nos concitoyens, notamment de nos enfants, vous en limitez l’usage. Vous affirmez que l’intelligence artificielle reproduirait et même amplifierait les discriminations, ce qui obligerait à lui interdire certaines conclusions et à se montrer aussi aveugle que vous dans la lutte contre la délinquance.

Vous refusez un système intelligent de détection des mensonges aux frontières de l’Union européenne, alors que 80 % des prétendus mineurs isolés sont en fait majeurs et que 70 % des demandes d’asile sont rejetées parce qu’infondées.

Vous affirmez que l’affaire américaine George Floyd, qui ne nous concerne pourtant pas, est la preuve d’un prétendu racisme des forces de police, et exigez des plans nationaux de lutte contre le policier plutôt que contre les voyous.

Nous attendions de ce rapport qu’il parle d’intelligence artificielle, d’efficacité pénale, de sécurité de nos concitoyens et nous n’avons que du laxisme pour les délinquants et des leçons idéologiques pour les forces de l’ordre et les honnêtes citoyens. Puisque l’Europe ne veut pas contrôler sérieusement ses frontières et lutter contre la criminalité, alors les États membres devront reprendre leur destin en main et se prononcer par l’élection ou le référendum sur les questions vitales de la sécurité et de la souveraineté: c’est exactement ce que Marine Le Pen proposera en France en mars 2022.

🚫 Aucune intervention en plénière