Résolution sur les processus de prise de décision automatisés: assurer la protection des consommateurs et la libre circulation des biens et des services
📌 Votes principaux
📚 Sources
- ℹ️ Procédure 2019/2915(RSP)
- 📜 Textes et amendements
- 🗳 Votes
🗃️ Données
1. salue le potentiel que présente la prise de décision automatisée pour offrir des services innovants et améliorés aux consommateurs, y compris de nouveaux services numériques tels qu’assistants virtuels et dialogueurs («chatbots»); est cependant convaincu que, lorsque les consommateurs interagissent avec un système qui automatise
largement
la prise de décision, ils doivent être dûment informés de
la manière dont un tel système fonctionne
son existence, du processus, de la logique et du raisonnement qui le sous-tendent et des résultats qui peuvent en découler
, savoir comment joindre un être humain disposant de pouvoirs de décision, et connaître la manière dont les décisions du système peuvent être contrôlées
et corrigées
, contestées efficacement et corrigées en temps utile, d’une manière impartiale, facilement lisible, standardisée et accessible
;
Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)
Durabilité 5 bis. souligne que, lors de l’attribution de financements de l’Union européenne à des systèmes de prise de décision automatisée, il convient de donner la priorité au développement de systèmes de prise de décision fondés sur des algorithmes pour enregistrer et surveiller les incidences et évolutions environnementales, ou pour optimiser et réduire la consommation d’énergie et de ressources;
Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)
5 ter. souligne qu’il est nécessaire que les applications soient soumises à une évaluation des risques qui tienne compte de la durabilité écologique, économique et sociale dans la conception et l’utilisation des systèmes fondés sur des algorithmes, et demande que soit imposée l’obligation de rendre publique cette évaluation de l’incidence environnementale, comprenant l’empreinte énergétique;
Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)
8. fait observer que la directive sur la responsabilité du fait des produits défectueux12 offre depuis plus de 30 ans un précieux filet de sécurité pour protéger les consommateurs des dangers des produits défectueux; a conscience qu’il est difficile d’établir les responsabilités lorsqu’un préjudice subi par un consommateur découle de processus de prise de décision autonomes; invite la Commission à
réexaminer
réviser
cette directive et à envisager d’adapter les concepts tels que «produit», «dommage» et «défaut», et d’
adapter les règles relatives à la charge de la preuve
inverser la charge de la preuve pour les processus de prise de décision automatisés
; prie instamment la Commission de présenter des propositions pour mettre ces concepts et ces règles à
jour s’il y a lieu
; _________________
; ________________
12 Directive 85/374/CEE du Conseil du
25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du
fait des produits défectueux (JO L 210 du
Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)
14. souligne que, pour analyser si des produits présentant des capacités de prise de décision automatisée sont conformes aux règles applicables en matière de sécurité, il est essentiel que les algorithmes
, la documentation sur les logiciels et les ensembles de données
sous
-
-
tendant ces capacités soient suffisamment transparents, et
explicables vis-à-vis des
pleinement accessibles par les
autorités de surveillance du marché
tout en respectant la législation relative aux secrets d’affaires
; invite la Commission à étudier si des prérogatives supplémentaires devraient, à cet égard, être accordées aux autorités de surveillance du marché;
Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)
14 bis. appelle de ses vœux la création de centres nationaux et européens de compétences et la rédaction de lignes directrices à destination des autorités nationales de surveillance pour leur permettre d’examiner, de tester et d’évaluer les processus de prise de décision automatisés en fournissant une expertise technique et méthodologique par l’adoption de normes publiques, la formation et l’orientation structurée d’équipes d’essai interdisciplinaires;
Déposé par Verts/ALE (🇫🇷 : Régions et Peuples Solidaires, Les Écologistes, Alliance Écologiste Indépendante)
–Madame la Présidente, j’ai voté en faveur de cette résolution qui va pour moi dans le bon sens, c’est-à-dire la protection de la liberté des données et la protection des consommateurs, et je voudrais ici reconnaître l’engagement de la présidente de la commission IMCO.
Vous savez, Rabelais disait: «science sans conscience n’est que ruine de l’âme», et c’est pourquoi il me semble que nous devons rester vigilants sur les technologies liées à l’intelligence artificielle. En effet, ce ne sont pas des algorithmes qui peuvent aujourd’hui gérer des pans entiers de la société et de notre quotidien – je veux penser aux services publics, aux réclamations, aux opérations bancaires –, et c’est pour cela que j’attire votre attention sur deux points où le texte aurait, à mon sens, pu être plus ambitieux en matière de transparence. La transparence est une donnée essentielle pour la confiance de nos concitoyens. Nous pouvons aussi renforcer ce texte en nous assurant que les logiciels ne seront jamais discriminatoires envers les personnes les plus fragiles.
Alors, oui à la science, oui au progrès, si et seulement s’ils sont conjugués à l’éthique et à la morale.
– Monsieur le Président, Monsieur le Commissaire, je dispose d’une petite minute, alors je vous adresse une remarque et une question.
La remarque, c’est qu’effectivement, pour la première fois dans l’histoire de nos révolutions industrielles, l’intelligence artificielle n’a pas été pensée avec ses régulations et l’innovation est venue du privé, à la différence d’ailleurs des grandes révolutions industrielles où l’État avait énormément d’emprise sur les infrastructures et où le coût de construction des infrastructures était élevé. L’IA s’est donc développée, ce qui pose la question pour nous, les législateurs, d’aller au fond d’une législation qui, année après année, doit être revue en fonction des usages de cette intelligence artificielle.
C’est cela qui, à mon avis, pose la question de la confiance, notamment, puisque les usages se développent, que, paradoxalement, la puissance publique met beaucoup d’argent pour l’innovation et que, paradoxalement, on court après la régulation, derrière les usages et l’innovation. J’ajouterai sur ce point-là, parce que c’est peut-être ça qui motive cette résolution du Parlement européen, qu’il nous faut trouver l’adéquation entre la compétitivité de nos entreprises, la confiance du public dans de nouvelles technologies et notre capacité à être des précurseurs, et pas des suiveurs dans la mondialisation.
Le livre blanc répondra peut-être à une partie de ces questions-là, et on souhaite évidemment travailler avec la Commission sur tous ces points, mais on attend d’en savoir plus dans les quelques jours et les quelques semaines qui viennent.
Il est donc essentiel que les critères et algorithmes utilisés par les applications qui nous aident, nous marient ou nous suivent au travail soient transparents et contrôlés. Nous pouvons faire trop ou pas assez confiance à un système automatisé. Les accidents malheureux causés par des véhicules autonomes peuvent être considérés comme des cas de trop grande confiance. Demain, nous verrons de plus en plus de camions sans chauffeur sur nos routes et en cas d’accident, qui sera tenu responsable? Qui indemnisera? Le consommateur doit toujours être responsable en dernier ressort et être en mesure d’annuler les décisions automatiques prises par des ordinateurs ou des robots.
Concernant le texte qui est proposé, cette résolution manque un point crucial: elle ne dit rien de la concentration des données au sein de quelques entreprises non européennes et de notre émancipation nécessaire dans ce domaine. Nous ne croyons pas que les consommateurs aient été suffisamment protégés contre les dommages causés par des produits défectueux par les directives de Bruxelles. Vous le savez bien – depuis plus de 30 ans, les entreprises insèrent des clauses de non-responsabilité écrites en tout petit dans leur contrat. Pour toutes ces raisons et à ce jour, nous ne croyons pas qu’il serait plus efficace que Bruxelles décide des critères de gestion de risque de l’intelligence artificielle, mais nous croyons, en revanche, en nos ingénieurs français.