🇪🇺 Députés européens
🇫🇷 Députés français🗳 Voir le vote
🇪🇺 Députés européens
🇫🇷 Députés français🗳 Voir le vote
24. note que la police prédictive fait partie des applications d’IA utilisées dans le domaine répressif, mais attire l’attention sur le fait que, si elle permet d’analyser des séries de données en vue de l’identification de modèles et corrélations, elle ne peut répondre à la question de la causalité et prédire de manière fiable le comportement des personnes, et ne peut donc pas constituer à elle seule une base d’intervention; souligne que plusieurs villes des États-Unis ont cessé d’utiliser leurs systèmes de police prédictive à la suite d’audits; rappelle que, lors de la mission de la commission LIBE aux États- Unis en février 2020, les services de police de New York et de Cambridge (Massachusetts) ont indiqué qu’ils avaient progressivement abandonné leurs programmes de police prédictive, en raison de leur manque d’efficacité, de leur effet discriminatoire et de leur échec dans la pratique, au profit de la police de proximité; observe que ce changement a entraîné une baisse du taux de criminalité;
s’oppose
invite
dès lors
à ce que les autorités répressives
les autorités répressives à faire preuve de la plus grande prudence lorsqu’elles
utilisent l’IA pour prédire le comportement de personnes ou de groupes en se fondant sur des données historiques et les comportements passés, l’appartenance à un groupe, la localisation ou toute autre caractéristique de ce type, en tentant ainsi d’identifier les personnes susceptibles de commettre une infraction;
souligne que ces outils ne devraient être utilisés que lorsque toutes les garanties nécessaires auront été mises en place pour éliminer les préjugés existants; invite les États membres et les autorités répressives à surveiller en permanence les effets, la nécessité et les éventuelles conséquences négatives de ces outils; souligne que ces outils ne peuvent être utilisés que comme des aides et ne peuvent être le seul élément sur lequel s’appuient les services répressifs; invite toutefois la Commission et les États membres à soutenir les environnements d’essai et les projets pilotes pour permettre la poursuite du développement et l’amélioration de ces outils en vue de les rendre plus solides et précis;
Déposé par des députés dont aucun français
27.
demande toutefois un moratoire sur
estime que les normes techniques pour
le déploiement des systèmes de reconnaissance faciale
à des fins répressives destinés à l’identification, à moins qu’ils ne soient utilisés qu’aux fins de l’identification des victimes de la criminalité, jusqu’à ce que les normes techniques puissent être considérées comme pleinement respectueuses des droits fondamentaux,
par les autorités répressives aux fins de l’identification devraient être encore améliorées pour assurer le respect des droits fondamentaux, en particulier pour veiller à ce
que les résultats
obtenus
ne soient ni biaisés, ni discriminatoires
, que le cadre juridique offre des garanties strictes contre les utilisations abusives ainsi qu’un contrôle et une surveillance démocratiques rigoureux, et que la nécessité et la proportionnalité du déploiement de ces technologies soient prouvées de manière empirique; relève que lorsque les critères susmentionnés ne sont pas remplis, les systèmes ne devraient pas être utilisés ou déployés
; demande à la Commission et aux États membres de faire preuve d’une extrême prudence lorsqu’ils autorisent les services répressifs à utiliser des applications de reconnaissance faciale et d’exiger une autorisation judiciaire préalable; souligne qu’il convient de renforcer encore la surveillance et le contrôle démocratiques afin que ces technologies ne soient utilisées que lorsque cela est nécessaire et proportionné; met en particulier l’accent sur le rôle important des systèmes de reconnaissance faciale dans l’identification des victimes
;
Déposé par des députés dont aucun français
31. manifeste sa vive inquiétude quant aux projets de recherche financés dans le cadre d’Horizon 2020 qui déploient l’intelligence artificielle aux frontières extérieures, tels que le projet iBorderCtrl, un «système intelligent de détection de mensonges» qui a été testé en Hongrie, en Lettonie et en Grèce, et qui établit le profil des voyageurs sur la base d’un entretien automatisé réalisé par webcam avant le voyage et d’une analyse de 38 micro-gestes fondée sur l’intelligence artificielle; invite donc la Commission à mettre en œuvre, par des moyens législatifs et non législatifs et, au besoin, par le biais de procédures d’infraction, l’interdiction
de tout traitement
du traitement
des données biométriques, y compris des images faciales, à des fins répressives conduisant à une surveillance de masse dans les espaces accessibles au public
, sauf si et dans la mesure où son utilisation est strictement nécessaire pour des objectifs très spécifiques tels qu’une recherche ciblée des victimes de la criminalité ou la prévention d’un attentat terroriste ou d’une autre menace imminente pour la vie ou l’intégrité physique d’une personne; souligne qu’une autorisation judiciaire préalable est indispensable et que le traitement de ces données doit être limité dans l’espace et dans le temps
; invite en outre la Commission à mettre un terme au financement de la recherche ou du déploiement de données biométriques ou de programmes
susceptibles de donner
contribuant ou donnant
lieu à une surveillance de masse
dans les espaces publics
, qui n’est pas conforme aux conditions fixées dans le droit de l’Union et le droit national applicables
; souligne, dans ce contexte, qu’il y a lieu d’accorder une attention particulière et d’appliquer un cadre strict à l’utilisation de drones dans les opérations de police;
Déposé par des députés dont aucun français
– Monsieur le Président, Madame la Commissaire, mes chers collègues, les domaines policiers et judiciaires n’échappent pas aux évolutions technologiques et parmi celles-ci, l’intelligence artificielle est une technologie nouvelle et puissante.
L’utilisation de cet outil s’est révélée être un réel atout dans le cadre de certaines enquêtes criminelles, de la lutte contre le terrorisme ou du contrôle des frontières. Ainsi, dans l’affaire terrifiante des attentats de Paris du 13 novembre 2015, c’est en partie grâce à cette technique de l’intelligence artificielle et de la reconnaissance faciale que les enquêteurs ont pu identifier, localiser et arrêter les terroristes présumés.
Cependant, son utilisation doit bien sûr se faire dans le cadre d’un contrôle strict. En effet, son usage doit être limité et proportionné, et toujours être accompagné de supervision humaine. Il doit y avoir un vrai travail de transparence quant aux technologies utilisées, ainsi qu’un contrôle démocratique et surtout judiciaire dans son utilisation, permettant d’éviter tout biais et d’assurer le respect des droits fondamentaux.
Chers collègues, l’utilisation de l’intelligence artificielle dans les affaires pénales peut être un atout pour les enquêtes criminelles et pour la justice européenne. Ne nous en privons pas, dans le respect des libertés fondamentales.
Ainsi, en matière policière et judiciaire, là où l’informatique peut permettre des progrès décisifs pour la sécurité de nos concitoyens, notamment de nos enfants, vous en limitez l’usage. Vous affirmez que l’intelligence artificielle reproduirait et même amplifierait les discriminations, ce qui obligerait à lui interdire certaines conclusions et à se montrer aussi aveugle que vous dans la lutte contre la délinquance.
Vous refusez un système intelligent de détection des mensonges aux frontières de l’Union européenne, alors que 80 % des prétendus mineurs isolés sont en fait majeurs et que 70 % des demandes d’asile sont rejetées parce qu’infondées.
Vous affirmez que l’affaire américaine George Floyd, qui ne nous concerne pourtant pas, est la preuve d’un prétendu racisme des forces de police, et exigez des plans nationaux de lutte contre le policier plutôt que contre les voyous.
Nous attendions de ce rapport qu’il parle d’intelligence artificielle, d’efficacité pénale, de sécurité de nos concitoyens et nous n’avons que du laxisme pour les délinquants et des leçons idéologiques pour les forces de l’ordre et les honnêtes citoyens. Puisque l’Europe ne veut pas contrôler sérieusement ses frontières et lutter contre la criminalité, alors les États membres devront reprendre leur destin en main et se prononcer par l’élection ou le référendum sur les questions vitales de la sécurité et de la souveraineté: c’est exactement ce que Marine Le Pen proposera en France en mars 2022.