Le 19 février 2020, la Commission européenne dévoilait son Livre blanc sur l’intelligence artificielle (IA)[1], en même temps que sa « stratégie européenne pour les données »[2]. Les deux dossiers sont étroitement liés puisque l’apprentissage-machine sur lequel repose l’IA est alimenté par les données. Et les progrès de l’IA dépendent de l’essor d’une économie des données. Une consultation publique est ouverte jusqu’au 19 mai. Une proposition législative pourrait suivre fin 2020.
La stratégie européenne vise à faciliter l’accès à des données de qualité et à assurer le marché unique des données. Plusieurs axes sont envisagés: l’ouverture des données publiques selon l’axe G2B (du ‘gouvernement’ aux entreprises/business), le partage de données B2B (entre entreprises), mais aussi le B2G (des entreprises au profit des politiques publiques).
Sur le partage B2G, un groupe d’expert a déposé, le 19 février aussi, ses recommandations[3], par ex. créer des fonctions d’intendance des données ou tester des PPP (partenariats public-privé) sur l’échange de données.
Pour assurer l’excellence de l’IA, la Commission entend investir 20 milliards d’euros par an et mobiliser divers partenaires. Pour inspirer la confiance dans l’IA, elle propose d’établir un cadre juridique qui limite les risques pour les droits fondamentaux (vie privée et non-discrimination) et pour la sécurité.
Petite surprise : finalement la Commission n’envisage pas d’interdire l’usage des techniques de reconnaissance faciale. Pour la Commission, les applications d’IA à haut risque devraient être soumises à des obligations spécifiques (pour les données d’entraînement, leur conservation, la robustesse, etc.).
En matière de sécurité et de responsabilité[4], le cadre existant précède l’émergence des technologies comme l’IA, l’Internet des objets ou la robotique. Sa « neutralité technologique » assure son adaptabilité à de nouvelles avancées technologiques. Néanmoins les caractéristiques des nouveaux produits modifient la donne : leur connectivité peut compromettre la sécurité de manière indirecte (piratage d’un objet connecté pour enfants) ; l’autonomie des produits de l’IA peut générer des risques non prévus au départ, obligeant à revoir les conditions de sécurité ; les robots humanoïdes peuvent présenter des risques pour la santé mentale des personnes vulnérables. En outre, les règles sur la sécurité des produits ne traitent pas des risques liés à des données erronées ; or les outils intelligents sont dépendants des données.
S’agissant des logiciels, la directive 2006/42 relative aux machines y fait référence ; en revanche, il n’est pas clair que la directive 85/374 sur la responsabilité du fait des produits s’applique à tous les logiciels intégrés aux produits, ce qui justifie une clarification. Une autre suggestion est de faciliter la charge de la preuve de la défectuosité et de la faute du fabricant, en présumant celle-ci si des exigences de sécurité ne sont pas remplies. Face à l’opacité des systèmes d’IA (‘boîte noire’), d’autres mesures devraient faciliter la preuve et l’indemnisation des victimes. Les applications d’IA présentant un profil de risque élevé pourraient être soumises à une responsabilité stricte (couplée à une assurance obligatoire). C’est déjà le régime applicable aux véhicules, autonomes ou pas.
Bref beaucoup de chantiers pour la nouvelle Commission qui lie les mesures de transition numérique aux mesures nécessitées par le « green deal » annoncé en décembre dernier (COM(2019) 640 final).
[1] COM(2020) 65 final. Son sous-titre révèle deux axes: « Une approche européenne axée sur l’excellence et la confiance ».
[2] COM(2020) 66 final.
[3] https://ec.europa.eu/digital-single-market/en/news/experts-say-privately-held-data-available-european-union-should-be-used-better-and-more .
[4] Voir le rapport spécifique aussi publié le 19/2/2020 (Rapport sur les conséquences de l’IA, de l’internet des objets et de la robotique sur la sécurité et la responsabilité, COM(2020) 64 final).