Comment protéger ses données face à l’essor de l’intelligence artificielle ?

Nous vous proposons cette excellente contribution de Infodujour.fr

À l’ère du tout numérique et des nouvelles technologies, les habitudes d’achat et les modes de consommation évoluent. Mais ce n’est pas sans risques.

Réfrigérateur connecté, contrôle automatisé des lumières à la maison, véhicules autonomes, livraison par drones, robot capable de répondre à toutes vos questions et en plusieurs langues… Si l’intelligence artificielle (IA) fait le pari de faciliter la vie des consommateurs et de répondre à leurs besoins, elle n’est pas sans risques, notamment sur la sécurité de leurs données personnelles. C’est pourquoi l’Europe souhaite compléter son règlement général sur la protection des données (RGPD) par un ensemble de règles harmonisées sur l’utilisation de l’IA. À quelques jours de la journée européenne de la protection des données, le 28 janvier, le Centre Européen des Consommateurs France vous explique les enjeux et les attentes de ces textes face à la digitalisation de la consommation.

Une consommation de plus en plus connectée et digitalisée

Calcul de la consommation d’électricité pour proposer des offres adaptées, montre connectée qui détecte certaines pathologies par une démarche anormale ou un rythme cardiaque trop rapide, Chatbot en guise de services clients, programme à distance pour allumer le chauffage à la maison… L’intelligence artificielle a, petit à petit, envahi nos habitudes de consommation.
Et ce n’est que le début ! De nombreuses sociétés travaillent déjà sur des technologies et pratiques commerciales faisant appel à d’autres intelligences artificielles. Ainsi, des livraisons par drone, des taxis autonomes, du marketing en réalité virtuelle, des voicebots, sont en cours de développement.

Quels sont les risques pour les consommateurs ?

Tous ces nouveaux modes de consommation ne sont pas sans risques pour les utilisateurs. L’intelligence artificielle impliquant de nombreux acteurs (développeur, fournisseur, importateur, distributeur, utilisateur de l’IA), le système reste opaque pour le consommateur. Difficile donc de savoir qui a concrètement accès aux données personnelles et qui serait responsable en cas de problèmes.
D’autre part, le système de l’IA étant programmé et automatisé, le risque de défaillance technique est à prendre en compte. Et les conséquences seraient dommageables. Exemples : voiture autonome incontrôlable, panne d’électricité généralisée, fausses informations ou mauvais diagnostic…
Enfin, le risque de fuite ou de perte de contrôle sur les données personnelles enregistrées est grand : cyberattaque, piratage informatique, hameçonnage ou autres techniques de marketing digital ciblé, infox, escroquerie…

Une protection européenne sur l’utilisation de l’intelligence artificielle

Face à l’essor, mais aussi aux risques de l’IA, l’Europe souhaite renforcer ses règles protectrices. En complément du RGPD et de la Loi européenne sur la gouvernance des données, l’Union européenne a proposé trois textes : un cadre réglementaire sur l’intelligence artificielle, une directive sur la responsabilité en matière d’IA, une directive sur la responsabilité des produits.
L’Europe souhaite notamment interdire sur le marché et sanctionner les « IA à risques inacceptables ». Par exemple, celles qui repéreraient à distance, en temps réel et dans des espaces publics, des individus pour les arrêter ou les sanctionner. Elle souhaite évaluer et contrôler les « IA à haut risque » liées notamment à la sécurité d’un produit (comme les voitures autonomes). Et l’UE veut réguler les « IA à risques acceptables » en obligeant, par exemple, les géants du numérique et autres plateformes et réseaux sociaux à mieux informer les utilisateurs sur leurs algorithmes.
À l’image du RGPD, les sanctions prévues dans ces textes sur l’IA sont importantes : de 10 à 30 millions € ou 2 à 4% du chiffre d’affaires en cas de manquement aux obligations.
« Le défi de l’Europe est maintenant d’aller vite dans l’adoption de ces textes, plus vite que l’innovation et l’investissement qui est mis dans l’intelligence artificielle » indique Bianca Schulz, responsable du Centre Européen des Consommateurs France.
« Les consommateurs n’ont pas toujours conscience que poser des questions personnelles, d’ordre médical par exemple, à un outil conversationnel, c’est donné aux entreprises derrière cette intelligence artificielle des informations sensibles qui pourraient être exploitées à des fins commerciales. C’est pourquoi, pour protéger leurs données, les consommateurs doivent toujours se renseigner sur l’entreprise qui recueille leurs données et sur sa politique de traitement de ces informations personnelles » conclut Bianca Schulz.

Voir aussi

Copy link
Powered by Social Snap