Résolution sur les processus de prise de décision automatisés: assurer la protection des consommateurs et la libre circulation des biens et des services

Procédure terminée

📌 Votes principaux

👍 Proposition de résolution
✅️ Adopté
🖐 Vote à main levée
12 février 2020

📚 Sources

🗃️ Données

📝 Amendement n°1 ❌️ Rejeté

1. salue le potentiel que présente la prise de décision automatisée pour offrir des services innovants et améliorés aux consommateurs, y compris de nouveaux services numériques tels qu’assistants virtuels et dialogueurs («chatbots»); est cependant convaincu que, lorsque les consommateurs interagissent avec un système qui automatise largement la prise de décision, ils doivent être dûment informés de la manière dont un tel système fonctionne son existence, du processus, de la logique et du raisonnement qui le sous-tendent et des résultats qui peuvent en découler , savoir comment joindre un être humain disposant de pouvoirs de décision, et connaître la manière dont les décisions du système peuvent être contrôlées et corrigées , contestées efficacement et corrigées en temps utile, d’une manière impartiale, facilement lisible, standardisée et accessible ;

Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°2 ❌️ Rejeté

Durabilité 5 bis. souligne que, lors de l’attribution de financements de l’Union européenne à des systèmes de prise de décision automatisée, il convient de donner la priorité au développement de systèmes de prise de décision fondés sur des algorithmes pour enregistrer et surveiller les incidences et évolutions environnementales, ou pour optimiser et réduire la consommation d’énergie et de ressources;

Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°3 ❌️ Rejeté

5 ter. souligne qu’il est nécessaire que les applications soient soumises à une évaluation des risques qui tienne compte de la durabilité écologique, économique et sociale dans la conception et l’utilisation des systèmes fondés sur des algorithmes, et demande que soit imposée l’obligation de rendre publique cette évaluation de l’incidence environnementale, comprenant l’empreinte énergétique;

Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)

🔗 Voir la source

📝 Amendement n°4 ❌️ Rejeté

8. fait observer que la directive sur la responsabilité du fait des produits défectueux12 offre depuis plus de 30 ans un précieux filet de sécurité pour protéger les consommateurs des dangers des produits défectueux; a conscience qu’il est difficile d’établir les responsabilités lorsqu’un préjudice subi par un consommateur découle de processus de prise de décision autonomes; invite la Commission à réexaminer réviser cette directive et à envisager d’adapter les concepts tels que «produit», «dommage» et «défaut», et d’ adapter les règles relatives à la charge de la preuve inverser la charge de la preuve pour les processus de prise de décision automatisés ; prie instamment la Commission de présenter des propositions pour mettre ces concepts et ces règles à jour s’il y a lieu ; _________________ ; ________________ 12 Directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux (JO L 210 du

Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)

🔗 Voir la source

🖐 Vote à main levée
📝 Amendement n°5 ❌️ Rejeté

14. souligne que, pour analyser si des produits présentant des capacités de prise de décision automatisée sont conformes aux règles applicables en matière de sécurité, il est essentiel que les algorithmes , la documentation sur les logiciels et les ensembles de données sous - - tendant ces capacités soient suffisamment transparents, et explicables vis-à-vis des pleinement accessibles par les autorités de surveillance du marché tout en respectant la législation relative aux secrets d’affaires ; invite la Commission à étudier si des prérogatives supplémentaires devraient, à cet égard, être accordées aux autorités de surveillance du marché;

Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)

🔗 Voir la source

📝 Amendement n°6 ❌️ Rejeté

14 bis. appelle de ses vœux la création de centres nationaux et européens de compétences et la rédaction de lignes directrices à destination des autorités nationales de surveillance pour leur permettre d’examiner, de tester et d’évaluer les processus de prise de décision automatisés en fournissant une expertise technique et méthodologique par l’adoption de normes publiques, la formation et l’orientation structurée d’équipes d’essai interdisciplinaires;

Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)

🔗 Voir la source

🖐 Vote à main levée
🚫 Aucun amendement
Nicolas BAY | Rassemblement national
. – Alors que nous nous reposons de plus en plus sur l’IA et l’automatisation, il est essentiel que les critères et algorithmes utilisés par les applications qui nous aident et nous tracent au travail ou dans notre vie de tous les jours soient transparents et contrôlés par les autorités. Un être humain doit toujours être responsable en dernier ressort et en mesure d’annuler les décisions automatiques prises par des ordinateurs ou des robots. L’anonymat de nos données doit également être protégé.Cependant, cette résolution ne dit rien de la concentration des données au sein de quelques entreprises non européennes et de notre émancipation nécessaire dans ce domaine. Ce point est pourtant fondamental puisqu’indispensable à notre indépendance et de notre souveraineté numérique. Je me suis donc abstenu.
Dominique BILDE | Rassemblement national
Je me suis abstenue sur ce texte.La question orale est consensuelle, mais je ne suis pas nécessairement favorable à l'idée d'accorder des prérogatives élargies à la Commission européenne en matière d'intelligence artificielle.
Brice HORTEFEUX | Les Républicains
La protection des données personnelles est un concept extrêmement important et encadré par le règlement général sur la protection des données. Le développement de l’intelligence artificielle et des algorithmes qui pré-conditionnent la décision finale dans un système de décision automatisée nécessite qu’une meilleure information soit communiquée aux consommateurs lorsqu’ils font une demande de crédit, d’assurance ou qu’ils fournissent des détails sur leur état de santé.Il est en effet essentiel d’empêcher les dérives et les décisions discriminatoires. C’est pourquoi, la résolution plaide pour que l’homme reste responsable en dernier ressort de la prise de décision.Les enjeux de l’intelligence artificielle sont des problématiques très modernes et actuelles sur lesquelles le législateur doit être en mesure de réagir et de peser rapidement.
France JAMET | Rassemblement national
Je me suis abstenue sur la résolution. Car s’il est essentiel que les critères et algorithmes utilisés par les applications qui aident et tracent le travail et notre vie de tous les jours soient transparents et contrôlés par les autorités, il est encore plus fondamental que l’anonymat de nos données soit protégé. De plus, je ne crois pas qu’il serait plus efficace que Bruxelles décide des critères de gestion de risques concernant l’intelligence artificielle.
Gilles LEBRETON | Rassemblement national
Je me suis abstenu car malgré l’intérêt intrinsèque de la résolution, elle donne trop de pouvoir à la Commission.
Joëlle MÉLIN | Rassemblement national
Cette initiative du Parlement fait suite au développement rapide de la technologie de l’intelligence artificielle (AI) et de la prise de décision automatisée. Si ces avancées offrent de grandes possibilités, elles soulèvent aussi de grands défis sur la protection des données, la transparence et la responsabilité de l’humain derrière la machine.Je me suis abstenue sur ce texte. En effet, je reconnais qu’il est essentiel que les critères et algorithmes utilisés par les applications qui nous aident et nous tracent au travail ou dans notre vie de tous les jours soient transparents et contrôlés par les autorités. Un être humain doit toujours être responsable en dernier ressort et en mesure d’annuler les décisions automatiques prises par des ordinateurs ou des robots. L’anonymat de nos données doit être protégé.Cependant, cette résolution ne dit rien de la concentration des données au sein de quelques entreprises non européennes et de notre émancipation nécessaire dans ce domaine. Nous ne croyons pas que les consommateurs aient été suffisamment protégés contre les dommages causés par des produits défectueux par les directives de Bruxelles.
Nadine MORANO | Les Républicains
J’ai voté en faveur de cette résolution sur les processus de prise de décision automatisés. Le texte demande à la Commission d'évaluer l'efficacité et de mettre à jour la législation existante, mais également de créer une législation spécifique sur cet aspect de l'intelligence artificielle, aujourd'hui de plus en plus utilisé par de nombreux secteurs (banque, finance, santé...).
Manon AUBRY | La France Insoumise
Cette résolution présente les propositions du Parlement européen pour encadrer les nouveaux outils numériques utilisant des algorithmes de décisions automatiques à des fins commerciales. Elle demande à la Commission d’être proactive pour adapter les législations européennes à ces évolutions technologiques afin de protéger les consommateurs et de garantir notamment la possibilité de défaire les décisions prises par les automates. J’ai donc voté pour ce texte qui va dans le sens d’une meilleure régulation des pratiques de l’industrie numérique.
Manuel BOMPARD | La France Insoumise
Les systèmes de prise de décision automatique ont connu une explosion fulgurante au cours des dernières années : de l’assistant virtuel aux chat-bots, en passant par les programmes analysant les situations bancaires, juridiques ou médicales, ces programmes sont présents et essentiels dans de nombreux secteurs. Ce développement ne va pas sans poser de nombreuses questions concernant la protection des consommateurs et de leurs données ; en effet, ces programmes profilent les utilisateurs en vue de personnaliser leurs réponses, ou de proposer un prix ajusté à chaque consommateur pour des services ou des produits...Cette résolution va dans le bon sens puisqu’elle demande à la Commission d’être proactive face à ces transformations, notamment pour garantir que les algorithmes ne sont pas biaisées dans leur prise de décision (discrimination entre les consommateurs en fonction des données accumulées ou de leur localisation etc.) et d’assurer un contrôle humain sur les décisions prises par les systèmes de décision automatiques : cela implique donc un principe de responsabilité humaine et de possibilité de défaire les décisions automatiques. Je vote donc pour cette résolution.
Pierre KARLESKIND | Renaissance
J’ai soutenu cette résolution qui permet de fixer certaines attentes du Parlement européen par rapport au livre blanc que la Commission doit publier au courant du mois de février. Ce texte présente l’intelligence artificielle sous l’angle de la protection des consommateurs, un des aspects les plus importants pour la définition d’un cadre légal et éthique pour le déploiement de cette technologique. Il faut que le processus de prise de décision automatisée soit compréhensible pour le consommateur et que ce dernier puisse toujours se prévaloir d’un droit de recours pour contester la décision. Le contrôle humain, que ça soit au niveau de la sécurité des produits ou du résultat de la prise de décision doit toujours être possible !
Jean-Paul GARRAUD | Rassemblement national
Je me suis abstenu car même si les défis à relever sont évidents, je ne crois pas que l’Union européenne soit la mieux placée pour décider des critères de gestion de risques concernant l’intelligence artificielle.
Virginie JORON | Rassemblement national
Je me suis abstenu sur ce texte.Il est en effet essentiel que les critères et algorithmes utilisés par les applications qui nous aident et nous tracent au travail ou dans notre vie de tous les jours soient transparents. Un être humain doit toujours être responsable en dernier ressort et en mesure d’annuler les décisions automatiques prises par des ordinateurs ou des robots. L’anonymat de nos données doit être protégé.Cependant, cette résolution ne dit rien de la concentration des données au sein de quelques entreprises non européennes et de notre émancipation nécessaire dans ce domaine. C’est pourquoi nous ne croyons pas qu’il serait plus efficace que Bruxelles décide des critères de gestion de risques concernant l’intelligence artificielle.
Jordan BARDELLA | Rassemblement national
Le texte donne un chèque en blanc à la Commission sur un sujet trop important pour être traité à la légère. Je me suis donc abstenu.
Catherine GRISET | Rassemblement national
La question de la concentration des données et de leur protection n’est pas véritablement abordée dans cette résolution. La technologie de l’intelligence artificielle (IA) et la prise de décision automatisée présentent des avantages, mais aussi des défis. La question de la gestion des risques ne semble pas être bien maîtrisée dans les seules mains de Bruxelles.
Hélène LAPORTE | Rassemblement national
La technologie de l’intelligence artificielle (IA) et de la prise de décision automatisée se développent à grande vitesse. Les applications et les défis sont nombreux et couvrent pratiquement tous les secteurs. Elles offrent un grand potentiel en termes de produits et de services innovants et de meilleure qualité, mais plusieurs défis doivent être relevés pour réaliser ce potentiel comme la garantie du choix et du bien-être des consommateurs, la prise en compte des risques ou les règles de responsabilités. Dans sa récente communication sur l’intelligence artificielle, la Commission européenne a reconnu la nécessité d’agir mais ne s’est pas engagé à mettre à jour les règles de l’UE en matière de sécurité et de responsabilité des produits afin de garantir leur adéquation à l’ère de l’IA. La question orale est assez consensuelle. Cependant, la résolution appelle la Commission à plus d’actions en se référant à un grand nombre de règlement et directives. Cette résolution ne dit rien de la concentration des données au sein de quelques entreprises non européennes. Même si les défis à régler sont évidents, il me paraît difficile de donner un blanc-seing sur ce sujet à la Commission. J’ai donc décidé de m’abstenir.
🚫 Aucune explication de vote
Anne-Sophie PELLETIER | La France Insoumise

–Madame la Présidente, j’ai voté en faveur de cette résolution qui va pour moi dans le bon sens, c’est-à-dire la protection de la liberté des données et la protection des consommateurs, et je voudrais ici reconnaître l’engagement de la présidente de la commission IMCO.

Vous savez, Rabelais disait: «science sans conscience n’est que ruine de l’âme», et c’est pourquoi il me semble que nous devons rester vigilants sur les technologies liées à l’intelligence artificielle. En effet, ce ne sont pas des algorithmes qui peuvent aujourd’hui gérer des pans entiers de la société et de notre quotidien – je veux penser aux services publics, aux réclamations, aux opérations bancaires –, et c’est pour cela que j’attire votre attention sur deux points où le texte aurait, à mon sens, pu être plus ambitieux en matière de transparence. La transparence est une donnée essentielle pour la confiance de nos concitoyens. Nous pouvons aussi renforcer ce texte en nous assurant que les logiciels ne seront jamais discriminatoires envers les personnes les plus fragiles.

Alors, oui à la science, oui au progrès, si et seulement s’ils sont conjugués à l’éthique et à la morale.

Stéphane SÉJOURNÉ | Renaissance

– Monsieur le Président, Monsieur le Commissaire, je dispose d’une petite minute, alors je vous adresse une remarque et une question.

La remarque, c’est qu’effectivement, pour la première fois dans l’histoire de nos révolutions industrielles, l’intelligence artificielle n’a pas été pensée avec ses régulations et l’innovation est venue du privé, à la différence d’ailleurs des grandes révolutions industrielles où l’État avait énormément d’emprise sur les infrastructures et où le coût de construction des infrastructures était élevé. L’IA s’est donc développée, ce qui pose la question pour nous, les législateurs, d’aller au fond d’une législation qui, année après année, doit être revue en fonction des usages de cette intelligence artificielle.

C’est cela qui, à mon avis, pose la question de la confiance, notamment, puisque les usages se développent, que, paradoxalement, la puissance publique met beaucoup d’argent pour l’innovation et que, paradoxalement, on court après la régulation, derrière les usages et l’innovation. J’ajouterai sur ce point-là, parce que c’est peut-être ça qui motive cette résolution du Parlement européen, qu’il nous faut trouver l’adéquation entre la compétitivité de nos entreprises, la confiance du public dans de nouvelles technologies et notre capacité à être des précurseurs, et pas des suiveurs dans la mondialisation.

Le livre blanc répondra peut-être à une partie de ces questions-là, et on souhaite évidemment travailler avec la Commission sur tous ces points, mais on attend d’en savoir plus dans les quelques jours et les quelques semaines qui viennent.

Virginie JORON | Rassemblement national

Il est donc essentiel que les critères et algorithmes utilisés par les applications qui nous aident, nous marient ou nous suivent au travail soient transparents et contrôlés. Nous pouvons faire trop ou pas assez confiance à un système automatisé. Les accidents malheureux causés par des véhicules autonomes peuvent être considérés comme des cas de trop grande confiance. Demain, nous verrons de plus en plus de camions sans chauffeur sur nos routes et en cas d’accident, qui sera tenu responsable? Qui indemnisera? Le consommateur doit toujours être responsable en dernier ressort et être en mesure d’annuler les décisions automatiques prises par des ordinateurs ou des robots.

Concernant le texte qui est proposé, cette résolution manque un point crucial: elle ne dit rien de la concentration des données au sein de quelques entreprises non européennes et de notre émancipation nécessaire dans ce domaine. Nous ne croyons pas que les consommateurs aient été suffisamment protégés contre les dommages causés par des produits défectueux par les directives de Bruxelles. Vous le savez bien – depuis plus de 30 ans, les entreprises insèrent des clauses de non-responsabilité écrites en tout petit dans leur contrat. Pour toutes ces raisons et à ce jour, nous ne croyons pas qu’il serait plus efficace que Bruxelles décide des critères de gestion de risque de l’intelligence artificielle, mais nous croyons, en revanche, en nos ingénieurs français.

🚫 Aucune intervention en plénière