Publications Office of the EU
Legal notices: Virtual assistant, the explainability notice - À propos de l'Office des publications
Dockbar
Avis sur l'explicabilité

Assistant virtuel : Avis sur l’explicabilité

Publio – Assistant intelligent du portail de l’Office des publications de l’Union européenne (portail de l’OP)

Dernière mise à jour: 16.5.2023

Publio, l’assistant intelligent du portail de l’Office des publications de l’Union européenne (portail de l’OP), est un outil d’intelligence artificielle (IA) qui interagit avec les personnes physiques et effectue des recherches en utilisant des mots-clés fondés sur des informations accessibles au public sur le portail de l’OP.
Le présent avis sur l’explicabilité renseigne les utilisateurs sur le cadre réglementaire relatif à l’intelligence artificielle et les principes régissant le fonctionnement de Publio dans ce contexte. L’Office des publications de l’Union européenne est attaché à la transparence et à une IA digne de confiance et explicable.

Transparence concernant l’intelligence artificielle (IA) – principes généraux

La transparence et l’ouverture des actions des institutions de l’Union sont essentielles à la bonne gouvernance et à la participation de la société civile, comme le prévoit l’article 15 du traité sur le fonctionnement de l’Union européenne (TFUE):

«1. Afin de promouvoir une bonne gouvernance, et d’assurer la participation de la société civile, les institutions, organes et organismes de l’Union œuvrent dans le plus grand respect possible du principe d’ouverture.»

La charte des droits fondamentaux de l’Union européenne énonce, à son article 41 (droit à une bonne administration), l’obligation pour l’administration de motiver ses décisions.

Un groupe d’experts de haut niveau sur l’intelligence artificielle, mis en place par la Commission européenne, a élaboré en 2019 des «Lignes directrices en matière d'éthique pour une IA digne de confiance» (annexe 1), qui font figurer la transparence parmi les sept exigences (annexe 2) auxquelles les systèmes d’IA devraient se conformer. Ces lignes directrices disposent en outre que la transparence est une composante du principe d’explicabilité, qui exige que les ensembles de données et les processus techniques concernés soient transparents, et que les capacités et la finalité des systèmes d’IA soient communiquées ouvertement. Les ensembles de données et les processus techniques doivent donc être documentés, traçables, explicables et interprétables.

Les principes susmentionnés doivent être appliqués à la mise au point, au déploiement et à l’utilisation de solutions et d’outils fondés sur l’IA par les institutions, organes et organismes de l’UE.

Sur la base de ces principes généraux, les personnes qui interagissent avec un système d’IA doivent être informées d’emblée que tel est le cas. Elles peuvent ainsi choisir en connaissance de cause de poursuivre l’interaction ou de se désengager de l’outil.

Conformément aux règles de transparence, les utilisateurs doivent également recevoir les informations nécessaires pour pouvoir interpréter les résultats du système et les utiliser de manière appropriée.

Une IA digne de confiance et explicable

Une IA digne de confiance et explicable constitue un objectif clé pour l’UE. L’UE travaille actuellement à l’élaboration d’un cadre réglementaire pour l’IA. La proposition de règlement de la Commission européenne du 21 avril 2021 établissant des règles harmonisées concernant l’intelligence artificielle (ci-après la «législation sur l’IA») (annexe 3) prévoit deux grands types d’engagements de la part des fournisseurs de solutions et d’outils fondés sur l’IA: la transparence et la fourniture d’informations.

Les utilisateurs de systèmes d’IA ont le droit de recevoir des informations. Ce droit est assorti d’obligations, telles que celles d’utiliser le système conformément à la notice d'utilisation et de surveiller le fonctionnement de l’outil d’IA concerné. Le respect de ces règles garantit la responsabilité de tous les acteurs concernés.

La proposition de législation sur l’IA dispose à l’article 52 (Obligations de transparence pour certains systèmes d’IA) que «1. Les fournisseurs veillent à ce que les systèmes d’IA destinés à interagir avec des personnes physiques soient conçus et développés de manière à ce que les personnes physiques soient informées qu’elles interagissent avec un système d’IA, sauf si cela ressort clairement des circonstances et du contexte d’utilisation. […]»

La proposition de législation sur l’IA suit une approche fondée sur les risques et introduit une distinction entre les utilisations de l’IA qui créent i) un risque inacceptable, ii) un risque élevé et iii) un risque faible ou minimal.

Publio, l’assistant intelligent du portail de l’OP, interagit avec les personnes physiques et effectue des recherches en utilisant des mots-clés fondés sur des informations accessibles au public sur le portail de l’OP. Ces informations sont publiées sur la base du principe de transparence qui sous-tend l’ensemble des politiques et de la législation de l’UE. L’assistant intelligent ne génère pas de nouveaux contenus, ni ne manipule ou n’influence les choix des utilisateurs; il se limite à proposer des options de filtrage possibles pour les recherches des utilisateurs. Publio doit donc être considéré comme relevant de la catégorie iii) à «risque faible» telle que définie dans le projet de législation sur l’IA.

Le projet de législation sur l’IA dispose, au titre IV (Transparence), que la conception et le fonctionnement des systèmes d’IA doivent tenir compte des risques spécifiques que ces systèmes pourraient présenter, tels que 1) la manipulation par des techniques subliminales, c’est-à-dire des techniques au-dessous du seuil de conscience des utilisateurs, ou 2) l’exploitation de groupes vulnérables susceptible de causer des préjudices psychologiques ou physiques. Des obligations de transparence plus strictes s’appliqueront aux systèmes qui i) interagissent avec les humains, ii) sont utilisés pour détecter des émotions ou déterminer l’association avec des catégories (sociales) sur la base de données biométriques, ou iii) génèrent ou manipulent des contenus (trucages vidéo ultra-réalistes). Si Publio interagit avec les personnes physiques, il n’est pas conçu pour détecter des émotions dans le but de manipuler les personnes et ne contient pas non plus d’éléments susceptibles de conduire par inadvertance à un tel résultat. Publio ne répond donc pas aux critères susmentionnés.

IA et responsabilité

La proposition de législation sur l’IA présentée par la Commission européenne a été complétée, le 28 septembre 2022, par une proposition relative à un régime de responsabilité civile pour l’IA – la directive sur la responsabilité en matière d'intelligence artificielle (annexe 4) (ci-après «directive sur la responsabilité en matière d’IA»), à la suite de la résolution du Parlement européen adoptée en vertu de l’article 225 du TFUE (annexe 5).

Comme indiqué dans la proposition de directive sur la responsabilité en matière d’IA, les règles nationales existant en matière de responsabilité, notamment en ce qui concerne la responsabilité pour faute, ne sont pas adaptées pour traiter les actions en responsabilité dans le cas de dommages causés par des produits et services dotés d’IA. En vertu de ces règles, il incombe à la victime de prouver l’existence d’un acte préjudiciable ou d’une omission, d’identifier la personne qui a causé le dommage et d’établir un lien de causalité. Compte tenu des caractéristiques spécifiques de l’IA, notamment sa complexité, son autonomie et son opacité (l’effet dit de «boîte noire»), il peut être difficile d’identifier la personne responsable du dommage résultant de l’utilisation de l’IA. Les victimes de tels dommages peuvent donc être dissuadées de demander une indemnisation. Compte tenu de la nature de la charge de la preuve, la proposition de directive sur la responsabilité en matière d’IA apporte des solutions innovantes: elle assouplit les exigences décrites ci-dessus en recourant à la divulgation et aux présomptions réfragables de non-respect.

La proposition de directive sur la responsabilité en matière d’IA fournit des moyens efficaces d’identifier les personnes potentiellement responsables des dommages et de trouver des éléments de preuve pertinents. Elle indique, par exemple, qu’une juridiction nationale peut ordonner la divulgation des éléments de preuve pertinents (et leur conservation) concernant des systèmes d’IA à haut risque spécifiques soupçonnés d’avoir causé un dommage (annexe 6). En outre, sous réserve des exigences énoncées à l’article 4 de la proposition de directive, les juridictions nationales présument [...] le lien de causalité entre la faute du défendeur et le résultat produit par le système d’IA ou l’incapacité de celui-ci à produire un résultat.

Comme indiqué dans l’exposé des motifs de la proposition de directive sur la responsabilité en matière d’IA, «la définition de telles règles efficaces en matière de responsabilité civile présente en outre l’avantage d’inciter davantage toutes les personnes participant à des activités liées aux systèmes d’IA à respecter les obligations quant au comportement que l’on attend d’elles.».

À propos de Publio

Termes et définitions

Termes Définitions
Tables d’autorité Les tables d’autorité (également appelées Named Authority Lists — NAL) sont utilisées pour harmoniser et normaliser les codes et les libellés associés utilisés dans différents environnements (plateformes, systèmes et applications web) et pour faciliter les échanges de données entre les institutions de l’UE, par exemple dans le cadre du processus décisionnel. Il peut s’agir de listes codifiées de langues, de pays, de personnes morales, etc.
Agent conversationnel Un agent conversationnel ou «chatbot» est un système d’intelligence artificielle (IA) conçu pour simuler la conversation humaine et interagir avec les utilisateurs par du contenu textuel ou vocal. Il utilise des techniques de traitement du langage naturel pour comprendre les entrées des utilisateurs et y répondre, fournir une assistance et des informations automatisées ou exécuter des tâches spécifiques sur la base de règles ou d’algorithmes prédéfinis. Les agents conversationnels sont couramment utilisés dans diverses applications, telles que le service à la clientèle, les assistants virtuels et les plateformes de messagerie en ligne, afin de faciliter la communication et de fournir des réponses instantanées aux demandes des utilisateurs.
IA conversationnelle L’IA conversationnelle est une forme d’intelligence artificielle qui facilite une conversation de type humain en temps réel entre un humain et un ordinateur.
Flux de conversation Le terme «flux de conversation» fait référence à la progression harmonieuse et logique d’une conversation (parcours de l'utilisateur) entre l'agent conversationnel et l’utilisateur. Il renvoie à la manière dont un agent conversationnel comprend l’intention de l’utilisateur, apporte des réponses appropriées et mène la conversation afin d’atteindre les objectifs ou la finalité déclarés de l’utilisateur.
Entité Utilisé dans ce contexte, le terme «entité» désigne une information qui peut être extraite de l’entrée de l’utilisateur et qui est pertinente par rapport à l’objectif de celui-ci, c’est-à-dire qu’elle permet de comprendre cet objectif. Ces informations seront identifiées et stockées pour extraire exactement les informations recherchées par l’utilisateur. Un exemple d’entité peut être l’auteur d’un article spécifique.
EU Vocabularies ou EuroVoc EuroVoc (EU Vocabularies) est un ensemble spécifique de tables d’autorité multilingues et pluridisciplinaires gérées par l’Office des publications et couvrant les activités de l’UE. Il contient des termes dans les 24 langues officielles de l’UE, ainsi que dans trois langues de pays candidats à l’adhésion à l’UE: albanais, macédonien et serbe.
Intention Utilisée dans ce contexte, l’«intention» fait référence à l’objectif que l’utilisateur a en tête lorsqu’il saisit ou énonce à haute voix une question ou un commentaire (requête). Une intention représente une idée ou un concept qui peut être contenu(e) dans un message (énoncé) adressé par l’utilisateur. Il peut s’agir par exemple d'un utilisateur qui souhaite rechercher un sujet, une publication ou une personne spécifique.
Modèle linguistique Un modèle linguistique est un type de programme d’intelligence artificielle (IA) conçu pour analyser et comprendre le langage naturel. Il utilise des techniques statistiques et probabilistes pour prédire les mots ou expressions susceptibles d’arriver dans la suite d'une phrase ou d'une séquence de texte donnée. En d’autres termes, un modèle linguistique est un outil qui peut être utilisé pour générer ou compléter des phrases en fonction du contexte et du contenu de l’entrée.
Language Understanding (LUIS) Il s’agit d'un service d’IA conversationnelle en nuage qui applique l’apprentissage automatique personnalisé au texte en langage naturel et conversationnel d’un utilisateur pour en prédire la signification globale et extraire des informations pertinentes et détaillées.
Apprentissage automatique L’apprentissage automatique est un type d’IA qui permet à des applications logicielles d’«apprendre» de pratiques et d’avis antérieurs et de gagner ainsi en précision pour prédire des résultats sans être explicitement programmé à cet effet.
Traitement du langage naturel Le traitement du langage naturel est un domaine de l’intelligence artificielle (IA) qui permet aux ordinateurs d’analyser et de comprendre le langage humain, tant à l’écrit qu’à l’oral.
Parcours de recherche Le parcours de recherche fait référence à la séquence d’interactions par laquelle passe un utilisateur lorsqu’il recherche des informations. Il s’agit du processus consistant à guider l’utilisateur au moyen d’une série de questions et de réponses afin de déterminer son intention de recherche et d'y répondre. Pour un agent conversationnel, le parcours de recherche consiste à comprendre la requête de l’utilisateur, à extraire des informations pertinentes d’une base de données ou de connaissances et à présenter les informations à l’utilisateur d’une manière facile à comprendre et adaptée à ses besoins.
Parcours de l'utilisateur L’expérience d’une personne au cours d’une session d’utilisation d’un site web ou d’une application, consistant en la série d’actions réalisées pour atteindre un objectif particulier sur ce site ou cette application.
Énoncé Entrée de l’utilisateur qui peut être tout message saisi ou parlé lors d’une conversation. Un énoncé peut consister en un seul mot ou en plusieurs mots, comme une question ou une expression.

Qu’est-ce que Publio?

Publio, l’assistant intelligent du portail de l’Office des publications (portail de l’OP), est un outil d’IA qui interagit avec les personnes physiques et effectue des recherches en utilisant des mots-clés fondés sur des informations accessibles au public sur le portail de l’OP. Publio associe des techniques d’intelligence artificielle (IA) conversationnelle telles que le traitement du langage naturel et l’apprentissage automatique avec des systèmes interactifs de reconnaissance vocale et de recherche traditionnelle, afin d’aider les utilisateurs à trouver des publications et des actes législatifs de l’UE et des personnes de contact dans les institutions européennes.

L’assistant intelligent permet spécifiquement des conversations parlées ou saisies entre les utilisateurs finaux et le portail de l’OP. Il est actuellement disponible en anglais, français et espagnol. Tout en étant utilisable par tous, l’assistant intelligent offre également une solution adaptée aux besoins des personnes ayant des difficultés de lecture, améliorant ainsi l’accessibilité. Il permet en outre une recherche conversationnelle, une nouvelle méthode de recherche qui permet aux utilisateurs de parler avec des phrases complètes — comme ils le feraient dans une conversation normale — à un assistant vocal alimenté par l’IA qui fournit les réponses. L’échange entre l’utilisateur et l’assistant intelligent prend la forme d’une conversation.

Quel type de données Publio utilise-t-il?

Publio utilise les informations accessibles au public sur le portail de l’OP. Ces informations sont publiées sur la base du principe de transparence applicable à l’ensemble des politiques et de la législation de l’UE. Sur la base de ce corpus, Publio utilise les classifications et les catégories disponibles sur le portail de l’OP, telles que les domaines EuroVoc, les auteurs ou le format, afin de guider et d’affiner la conversation et d’aider l’utilisateur à effectuer des recherches dans les trois principales collections du portail de l’OP: les publications de l’UE, le droit de l’UE et l’annuaire officiel de l’UE (EU Whoiswho).

Publio utilise un modèle linguistique existant pour comprendre les questions posées par les utilisateurs et guider ceux-ci tout au long de leur parcours de recherche. Sur la base des avis des utilisateurs, le modèle linguistique de Publio est constamment amélioré et formé pour répondre aux attentes des utilisateurs et s’adapter à la diversité de leurs entrées dans les trois langues prises en charge.

Cette formation couvre de nombreuses composantes du système qui sous-tend Publio:

 

  • une série prédéfinie d’énoncés associés à différentes formes d’intention possibles pour permettre à Publio de saisir d’abord l’objectif final de l’utilisateur puis de guider celui-ci étape par étape vers la réalisation de cet objectif;
  • une série prédéfinie de questions fixes que Publio «comprend» et pour lesquelles il peut fournir une réponse prédéfinie aux utilisateurs. Exemple: «comment puis-je commander des publications?»;
  • des entités acquises sur l’ordinateur peuvent être identifiées par Publio et utilisées dans ses processus en arrière-plan pour détecter des paramètres de recherche et fournir des résultats de recherche plus précis ou des options permettant d’affiner davantage la recherche. Ces entités sont fondées sur la classification et les catégories de données existantes, telles que les thésaurus EuroVoc ou d’autres tables d’autorité gérées par EuroVoc: auteurs, formats, langues, organes (organisations) de l’UE, rôles fonctionnels dans le service public de l’UE, etc. Sur cette base, Publio peut ainsi comprendre, à partir de la requête de l’utilisateur, que ce dernier recherche une publication sur un sujet spécifique ou d’un auteur spécifique.

Comment Publio fonctionne-t-il?

Publio s’appuie sur Microsoft Language Understanding (LUIS) (annexe 7) pour traiter l’entrée de l’utilisateur (un énoncé écrit ou oral), comprendre son intention et repérer les éléments clés (entités) auxquels il s’intéresse. Sur la base de l’intention reconnue, Publio lance un flux de conversation personnalisé visant à aider les utilisateurs à atteindre le résultat visé en quelques étapes simples.

À l’heure actuelle, Publio met en œuvre 4 principaux flux de conversation:

  • Flux de recherche de documents pour aider les utilisateurs à rechercher des publications ou des documents juridiques de l’UE
  • Flux de recherche de personnes pour aider les utilisateurs à rechercher des fonctionnaires des institutions de l’UE
  • Flux de recherche d’organisations pour aider les utilisateurs à rechercher des organes de l’UE (organisations)
  • Flux de questions-réponses pour apporter une réponse prédéfinie à des questions fréquentes.

Si un flux de «recherche» est reconnu, l’assistant virtuel guidera l’utilisateur dans la recherche d’un document, d’une personne ou d’une organisation pertinent(e) en lui posant des questions simples et, en fonction de sa réponse, proposera des options de filtrage.

Pour le flux de questions-réponses, le personnel de l’Office des publications tient à jour une liste de questions fréquemment posées et leurs réponses prédéfinies. Si l’intention de questions-réponses est reconnue et qu’il existe un degré élevé de similitude entre la question spécifique de l’utilisateur et l’une des questions enregistrées dans le système, une réponse appropriée sera directement renvoyée à l’utilisateur. Par exemple:

– si l’intention de questions-réponses est reconnue avec une requête comme «Où est ma commande?», l’assistant répondra par «Vous pouvez vérifier l’état de votre commande dans la section Mes commandes de votre profil»;

– si l’intention de questions-réponses est reconnue avec une requête telle que «Où puis-je trouver des documents pour les enfants», l’assistant répondra par «Les publications pour enfants sont disponibles dans le coin des enfants».

Les utilisateurs peuvent poser les questions par écrit ou oralement. L'agent conversationnel capture l’entrée audio (les questions posées oralement par l’utilisateur) et l’envoie à un moteur de reconnaissance vocale qui la convertit en texte. L’entrée audio est traitée par le service de reconnaissance vocale Microsoft Azure (annexe 8). Publio affiche ensuite les mots issus de l’entrée audio interprétés par le moteur de reconnaissance vocale, avant d’afficher la réponse par écrit et à l’oral à l’aide d’une voix de synthèse. Cet échange est instantané (il se produit instantanément) et éphémère (il ne laisse aucune trace).

 

Comment Publio analyse-t-il la question et propose-t-il des résultats?

Publio n’utilise pas de technologie générative et n’est donc pas en mesure de générer ou de manipuler le contenu utilisateur.

Publio utilise un modèle linguistique d’apprentissage automatique qui est formé (modèle linguistique formé) pour apprendre à reconnaître les entrées des utilisateurs et à y répondre. Ce modèle est chargé de traiter le message ou la requête de l’utilisateur, d’identifier l’intention du message et d’apporter une réponse appropriée. Le processus de formation de Publio consiste à fournir au modèle d’apprentissage automatique un grand nombre de données de formation étiquetées, qui comprennent des exemples d’entrées des utilisateurs, ainsi que leurs intentions et les réponses plausibles correspondantes.

Publio utilise le traitement du langage naturel et le modèle linguistique formé pour comprendre l’intention de l’utilisateur et extraire de la question de l’utilisateur les entités reconnues (par exemple: terme de recherche, objet, auteur, date du document et format du document). Publio utilise ces entités pour effectuer la recherche et afficher les résultats.





Si les résultats de la recherche sont trop vastes, Publio poursuit la conversation en posant des questions supplémentaires à l’utilisateur, afin d’affiner les résultats de la recherche à l’aide de filtres appliqués à d’autres entités.

Les questions formulées par Publio se limitent à identifier l’intention de l’utilisateur, à en saisir la finalité et à formuler la requête de recherche appropriée au corpus de contenu publié sur le portail de l’OP. Les résultats proposés par Publio proviennent entièrement de ce corpus.

Avis des utilisateurs


À tout moment de la conversation, l’utilisateur final peut fournir un avis positif, neutre ou négatif sur son expérience de l’utilisation de Publio. Il peut s’agir d’un avis manuel introduit par l’utilisateur à tout moment ou en réponse à une fenêtre contextuelle automatique qui s’affiche après quelques secondes d’inactivité. En outre, les questions qui ne sont pas correctement «comprises» par Publio sont automatiquement enregistrées et traitées périodiquement par une équipe de l’Office des publications. Les avis des utilisateurs et l’analyse des questions qui ne sont pas correctement «comprises» par Publio sont utilisés pour reformer le modèle linguistique en vue d’améliorer en permanence les services fournis aux utilisateurs finaux.

 

 

Traitement des données privées

Les données disponibles sur le portail de l’OP sont traitées conformément au règlement général de l’UE sur la protection des données (RGPD) et au règlement relatif au traitement des données à caractère personnel par les institutions, agences et organes de l’UE (annexe 9).

Publio ne stocke, ne conserve ou n’archive aucun élément, que ce soit l’entrée de l’utilisateur ou les éléments fournis au moyen des réponses de Publio.

Les avis recueillis sont anonymisés de sorte qu'il est impossible de les relier à l’utilisateur auprès duquel ils ont été recueillis.

Aucune donnée à caractère personnel n’est utilisée de quelque manière que ce soit pour la prise de décision, le traçage ou le profilage automatisés.

Limites actuelles

  • Transcription vocale des noms: si la plupart des noms sont «compris» et transcrits correctement, l’extraction du nom repose sur l’apprentissage automatique et n’est pas exacte à 100 %. En raison des limites liées à Microsoft Language Understanding (LUIS), certains noms ne sont pas correctement extraits, même après avoir formé le modèle avec les exemples spécifiques de l’ensemble de données.
  • Dates en français et en espagnol: la «compréhension» des dates est moins précise en espagnol et en français dans des contextes plus complexes. Par exemple, l’année sera reconnue en espagnol en utilisant «entre 2016 y 2017» sans contexte supplémentaire, alors qu’elle ne sera pas reconnue avec «entre el año 2019 y 2020». En anglais, «2 years ago» est reconnu alors qu’en français, l’expression «il y a 2 ans» ne l’est pas.
  • La reconnaissance vocale ne fonctionne que dans une seule langue à la fois.
  • Elle n’a pas de mode orthographique, ce qui signifie qu’elle ne dispose pas d'une fonctionnalité qui permettrait aux utilisateurs d’épeler des mots lettre par lettre afin de garantir une transcription exacte.
  • La reconnaissance de l’entité du nom ne fonctionne pas bien dans des expressions plus vastes lorsqu’elle est associée à «Mme»/«Mlle».

 

Office des publications de l’Union européenne, 16 mai 2023.

1 Disponible à l’adresse https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html

2 Les sept exigences auxquelles une IA digne de confiance doit satisfaire sont les suivantes: 1) action humaine et contrôle humain; 2) robustesse technique et sécurité des logiciels; 3) respect de la vie privée et bonne gouvernance des données; 4) transparence; 5) diversité, non-discrimination et équité; 6) bien-être sociétal et environnemental; 7) obligation de rendre des comptes et responsabilité.

3 Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM(2021) 206 final du 21.4.2021; le document est en cours d’examen par les colégislateurs (Parlement européen et Conseil).

4 Proposition de directive du Parlement européen et du Conseil relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle (directive sur la responsabilité en matière d’IA), COM (2022) 496 final du 28.9.2022.

5 Résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission sur un régime de responsabilité civile pour l’intelligence artificielle [2020/2014(INL)].

6 Voir l'article 3.

7 https://www.luis.ai/

8 https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE5cCGB

9 Règlement (UE) 2016/679, JO L 119 du 4.5.2016, p. 1, et règlement (UE) 2018/1725, JO L 295 du 21.11.2018, p. 39.