Publications Office of the EU
Legal notices: Virtual assistant, the explainability notice - Sobre la Oficina de Publicaciones
Dockbar
Explainability Notice

Asistente virtual : Declaración de explicabilidad

Publio — Asistente inteligente del Portal de la Oficina de Publicaciones de la Unión Europea (Portal de la OP)

Última actualización: 16.5.2023

Publio, el asistente inteligente del Portal de la Oficina de Publicaciones de la Unión Europea (Portal de la OP), es una herramienta de inteligencia artificial (IA) que interactúa con personas físicas y realiza búsquedas utilizando palabras clave basadas en información públicamente disponible en el Portal de la OP.
La presente declaración de explicabilidad ofrece información a los usuarios sobre el marco regulador de la inteligencia artificial y los principios por los que se rige el funcionamiento de Publio en este contexto. La Oficina de Publicaciones de la Unión Europea está comprometida con la transparencia y con una IA fiable y explicable.

Transparencia con respecto a la inteligencia artificial (IA): principios generales

La transparencia y la apertura de las acciones de las instituciones de la Unión son fundamentales para la buena gobernanza y la participación de la sociedad civil, tal como se afirma en el artículo 15 del Tratado de Funcionamiento de la Unión Europea (TFUE), que establece que:

«1. A fin de fomentar una buena gobernanza y de garantizar la participación de la sociedad civil, las instituciones, órganos y organismos de la Unión actuarán con el mayor respeto posible al principio de apertura».

En su artículo 41 (derecho a una buena administración), la Carta de los Derechos Fundamentales de la Unión Europea establece la obligación de la administración de motivar sus decisiones.

El documento «Directrices éticas para una IA fiable» (apéndice 1), que contiene una serie de directrices elaboradas en 2019 por el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial creado por la Comisión Europea, enumera la transparencia como uno de los siete requisitos (apéndice 2) que deben cumplir los sistemas de IA. Además, estas Directrices establecen que la transparencia es un componente del principio de explicabilidad, que exige que los conjuntos de datos y los procesos técnicos implicados sean transparentes y que las capacidades y la finalidad de los sistemas de IA se comuniquen abiertamente. Por lo tanto, los conjuntos de datos y los procesos técnicos deben estar documentados, ser explicables e interpretables y debe posibilitarse su trazabilidad.

Los principios antes mencionados deben aplicarse al desarrollo, el despliegue y la utilización de soluciones y herramientas basadas en la IA por parte de las instituciones, oficinas, órganos y agencias de la UE.

Sobre la base de estos principios generales, cuando las personas interactúan con un sistema de IA, deben ser informadas previamente de ello. Esto permite que los usuarios tomen una decisión informada a la hora de seguir interactuando con la herramienta o abandonar su uso.

En consonancia con las normas sobre transparencia, debe proporcionarse a los usuarios la información necesaria para ayudarles a interpretar los resultados del sistema y a utilizarlos adecuadamente.

IA fiable y explicable

Lograr que la IA sea fiable y explicable son dos objetivos clave para la UE. La Unión está trabajando en un marco regulador para la IA. La propuesta de Reglamento de la Comisión Europea, de 21 de abril de 2021, por el que se establecen normas armonizadas en materia de inteligencia artificial (en lo sucesivo, «Ley de Inteligencia Artificial») (apéndice 3) establece dos tipos principales de compromisos por parte de los proveedores de soluciones y herramientas basadas en la IA: transparencia y comunicación de información.

Los usuarios de los sistemas de IA tienen derecho a recibir información. Este derecho va acompañado de las obligaciones correspondientes, como la obligación de utilizar el sistema de acuerdo con las instrucciones y de supervisar el funcionamiento de la herramienta de IA en cuestión. El cumplimiento de estas normas da lugar a la rendición de cuentas de todos los agentes implicados.

La propuesta de Ley de Inteligencia Artificial establece en su artículo 52 (Obligaciones de transparencia para determinados sistemas de IA) que: «1. Los proveedores garantizarán que los sistemas de IA destinados a interactuar con personas físicas estén diseñados y desarrollados de forma que dichas personas estén informadas de que están interactuando con un sistema de IA, excepto en las situaciones en las que esto resulte evidente debido a las circunstancias y al contexto de utilización. […]».

La Ley de Inteligencia Artificial propuesta aplica un enfoque basado en los riesgos que distingue entre los usos de la IA que generan: i) un riesgo inaceptable; ii) un riesgo alto; y iii) un riesgo bajo o mínimo.

Publio, el asistente inteligente del Portal de la OP, interactúa con personas físicas y realiza búsquedas utilizando palabras clave basadas en la información de la que dispone el público en el Portal de la OP. Esta información se publica sobre la base del principio de transparencia que subyace a todas las políticas y la legislación de la UE. El asistente inteligente no genera nuevos contenidos, ni manipula las decisiones tomadas por los usuarios ni influye en ellas, más allá de proponer posibles opciones de filtrado para la búsqueda de los usuarios. Por lo tanto, se considera que Publio pertenece a la categoría iii) de «riesgo bajo», tal como se define en el proyecto de Ley de Inteligencia Artificial.

El proyecto de Ley de Inteligencia Artificial establece, en su título IV (Transparencia), que el diseño y el funcionamiento de los sistemas de IA deben tener en cuenta los riesgos específicos que estos podrían plantear, concretamente de que: 1) manipulen a los usuarios mediante técnicas subliminales, es decir, técnicas que trascienden la conciencia de dichos usuarios; o 2) aprovechen las vulnerabilidades de grupos vulnerables que puedan causar daños psicológicos o físicos. Se aplican obligaciones de transparencia más estrictas a los sistemas que: i) interactúan con seres humanos, ii) se utilizan para detectar emociones o determinar la asociación a categorías (sociales) concretas a partir de datos biométricos; o iii) generan o manipulan contenido (ultrafalsificaciones). Aunque Publio interactúa con personas físicas, el asistente inteligente no está diseñado para detectar emociones con el objetivo de manipular, ni contiene elementos que puedan generar involuntariamente tal resultado. Por lo tanto, Publio no se ajusta a los criterios antes mencionados.

IA y responsabilidad civil

El 28 de septiembre de 2022 la propuesta de Ley de Inteligencia Artificial de la Comisión Europea se completó con una propuesta de régimen de responsabilidad civil para la IA —la Directiva sobre responsabilidad en materia de inteligencia artificial (apéndice 4) (en lo sucesivo, «Directiva sobre responsabilidad en materia de IA»)—, a raíz de la Resolución del Parlamento Europeo adoptada en virtud del artículo 225 del TFUE (apéndice 5).

Como se establece en la propuesta de Directiva sobre responsabilidad en materia de IA, las normas vigentes en materia de responsabilidad civil, que se basan en la culpa, no son adecuadas para tramitar las demandas de responsabilidad civil por los daños causados por productos y servicios basados en la IA. Con arreglo a las normas de responsabilidad vigentes, las víctimas deben demostrar que se ha producido una acción u omisión ilícita, identificar a la persona que ha causado el daño y establecer un nexo causal. Las características específicas de la IA, incluidas su complejidad, su autonomía y su opacidad (el denominado efecto de «caja negra»), dificultan la identificación de la persona responsable de los daños derivados del uso de la IA. Por lo tanto, las víctimas que sufran tales daños pueden verse disuadidas de intentar obtener una indemnización. Dada la naturaleza de la cuestión de la carga de la prueba, la propuesta de Directiva sobre responsabilidad en materia de IA ofrece soluciones innovadoras al flexibilizar los requisitos descritos anteriormente mediante el uso de la exhibición y las presunciones refutables de incumplimiento.

La propuesta de Directiva sobre responsabilidad en materia de IA proporciona medios eficaces para determinar las personas potencialmente responsables y las pruebas pertinentes. Establece, por ejemplo, que un órgano jurisdiccional nacional puede ordenar la exhibición de pruebas pertinentes (y su conservación) sobre sistemas de IA de alto riesgo específicos de los que se sospeche que han causado daños (apéndice 6). Además, sin perjuicio de los requisitos establecidos en el artículo 4 de la propuesta de Directiva, los órganos jurisdiccionales nacionales presumirán [...] el nexo causal entre la culpa del demandado y los resultados producidos por el sistema de IA (o la no producción de resultados por parte del sistema de IA).

Como se concluye en la exposición de motivos de la propuesta de Directiva sobre responsabilidad civil en materia de IA, «estas normas eficaces en materia de responsabilidad civil tienen la ventaja añadida de ofrecer a todos los que participan en actividades relacionadas con sistemas de IA un incentivo adicional para cumplir sus obligaciones en relación con la conducta que se espera de ello».

Sobre Publio

Términos y definiciones

Término Definición
Cuadros de autoridades Los cuadros de autoridades (también conocidos como listas de autoridades nombradas) se utilizan para armonizar y normalizar los códigos y las etiquetas asociadas utilizados en diversos entornos (plataformas web, sistemas y aplicaciones) y para facilitar el intercambio de datos entre las instituciones de la UE, por ejemplo, en el contexto de los procesos de toma de decisiones. Algunos ejemplos de estos cuadros de autoridades son listas codificadas de lenguas, países, órganos corporativos, etc.
Chatbot Un chatbot es un sistema de inteligencia artificial (IA) diseñado para simular la conversación humana e interactuar con los usuarios a través del texto o el discurso. Utiliza técnicas de procesamiento del lenguaje natural (PLN) para comprender las aportaciones de los usuarios y responder a ellas, proporcionando asistencia automatizada o información o realizando tareas específicas basadas en normas o algoritmos predefinidos. Los chatbots se utilizan habitualmente en diversas aplicaciones, como la asistencia al cliente, los asistentes virtuales y las plataformas de mensajería en línea, para facilitar la comunicación y proporcionar respuestas instantáneas a las consultas de los usuarios.
IA conversacional La IA conversacional es una forma de inteligencia artificial que facilita una conversación en tiempo real entre un ser humano y un ordenador semejante a la que tendrían dos seres humanos.
Flujo de conversación El término «flujo de conversación» se refiere a la progresión fluida y lógica de una conversación (experiencia del usuario) entre el chatbot y el usuario. Alude a la forma en que un chatbot comprende la intención del usuario, proporciona respuestas adecuadas y dirige la conversación para alcanzar los objetivos o la finalidad declarados por el usuario.
Entidad En este contexto, el término «entidad» es un dato que puede extraerse de la información introducida por el usuario que es pertinente para la finalidad del usuario, es decir, que permite comprender cuál es el objetivo que persigue dicho usuario. Estos datos se identifican y almacenan para extraer exactamente la información que busca el usuario. Un ejemplo de entidad puede ser el autor de un artículo específico.
EU Vocabularies o EuroVoc EuroVoc (EU Vocabularies) es un conjunto específico de cuadros de autoridades multilingües y multidisciplinares gestionados por la Oficina de Publicaciones en relación con las actividades de la UE. Contiene términos en las veinticuatro lenguas oficiales de la UE, así como en tres lenguas de los países candidatos a la adhesión a la UE: albanés, macedonio y serbio.
Intención Utilizado en este contexto, el término «intención» se refiere al objetivo que tiene en mente el usuario cuando escribe o pronuncia una pregunta o comentario (consulta). Una intención representa una idea o un concepto que puede reflejarse en un mensaje (enunciado) enviado por el usuario. Un ejemplo de intención es el hecho de que el usuario desea buscar información sobre un tema específico, una publicación concreta o a una persona.
Modelo lingüístico Un modelo lingüístico es un tipo de programa de inteligencia artificial (IA) diseñado para analizar y comprender el lenguaje natural. Utiliza técnicas estadísticas y probabilísticas para predecir qué palabras o frases pueden encontrarse a continuación en una determinada frase o secuencia de texto. En otras palabras, un modelo lingüístico es una herramienta que puede utilizarse para generar o completar frases basadas en el contexto y el contenido de la información introducida.
Comprensión del lenguaje (LUIS) Servicio de IA de conversación basado en la nube que aplica la inteligencia del aprendizaje automático personalizado al texto en lenguaje natural de conversación del usuario para predecir el significado general y obtener información pertinente y detallada.
Aprendizaje automático El aprendizaje automático es un tipo de inteligencia artificial (IA) que permite que las aplicaciones informáticas «aprendan» de prácticas y reacciones anteriores y, de este modo, sean más precisas al predecir los resultados sin estar programadas explícitamente para hacerlo.
Procesamiento del lenguaje natural (PLN) El procesamiento del lenguaje natural (PLN) es un campo de la inteligencia artificial (IA) que permite que los ordenadores analicen y comprendan el lenguaje humano, tanto escrito como hablado.
Experiencia de búsqueda El término «experiencia de búsqueda» se refiere a la secuencia de interacciones que experimenta un usuario al buscar información específica. Es el proceso de orientar al usuario mediante una serie de preguntas y respuestas para determinar cuál es el objetivo de su búsqueda y ayudarle a cumplirlo. La experiencia de búsqueda en un chatbot implica la comprensión de la consulta del usuario, la obtención de información pertinente de una base de datos o una base de conocimientos, y la presentación de la información al usuario de una manera fácilmente comprensible y apropiada para sus necesidades.
Experiencia del usuario La experiencia de una persona durante una sesión de utilización de un sitio web o aplicación, consistente en la serie de acciones llevadas a cabo para alcanzar un objetivo concreto en dicho sitio web o aplicación.
Enunciado Información introducida por el usuario que puede ser cualquier mensaje escrito o pronunciado en una conversación. Un enunciado puede consistir en una sola palabra o en varias, que pueden formar una pregunta o una frase.

¿Qué es Publio?

Publio, el asistente inteligente del Portal de la Oficina de Publicaciones de la Unión Europea (Portal de la OP), es una herramienta de IA que interactúa con personas físicas y realiza búsquedas utilizando palabras clave basadas en información públicamente disponible en el Portal de la OP. Publio combina técnicas de inteligencia artificial (IA) de conversación, como el procesamiento del lenguaje natural (PLN) y el aprendizaje automático, con sistemas interactivos de reconocimiento de voz y sistemas de búsqueda tradicionales para ayudar a los usuarios a encontrar publicaciones de la UE, legislación de la Unión y personas de contacto en las instituciones europeas.

En concreto, el asistente inteligente permite que los usuarios finales y el Portal de la OP entablen conversaciones orales o escritas. Actualmente el asistente inteligente está disponible en inglés, francés y español. Aunque puede ser utilizado por cualquiera, el asistente inteligente también ofrece una solución adaptada a las necesidades de las personas con discapacidad de lectura, de manera que aumenta su accesibilidad. Además, permite la búsqueda por conversación, una nueva forma de búsqueda que permite a los usuarios dirigir frases completas, como lo harían en una conversación normal, a un asistente de voz que funciona mediante IA que les envía respuestas, y en la que el intercambio entre el usuario y el asistente inteligente adopta la forma de una conversación.

¿Qué tipo de datos utiliza Publio?

Publio utiliza la información disponible públicamente en el Portal de la OP. Esta información se publica sobre la base del principio de transparencia aplicable a todas las políticas y la legislación de la UE. Partiendo de ese corpus, Publio utiliza las clasificaciones y categorías disponibles en el Portal de la OP, como temas de EuroVoc, autores o formato para orientar y perfeccionar la conversación de forma que ayuda al usuario a buscar en las tres colecciones de datos principales del Portal de la OP: publicaciones de la UE, Derecho de la UE y directorio oficial de la UE (EU Whoiswho).

Publio utiliza un modelo lingüístico existente para comprender las preguntas formuladas por los usuarios y guiarlos a lo largo de su experiencia de búsqueda. Sobre la base de las observaciones de los usuarios, el modelo lingüístico de Publio se mejora constantemente y se entrena para satisfacer las expectativas de los usuarios y hacer frente a la diversidad de mensajes que envían los usuarios en las tres lenguas en las que funciona.

Este entrenamiento abarca múltiples componentes del sistema en el que se basa Publio:

 

  • Una serie predefinida de enunciados asociados a diferentes formas de intención posibles para permitir a Publio, en primer lugar, comprender el objetivo final del usuario y, en segundo lugar, guiar al usuario paso a paso hacia la consecución de dicho objetivo.
  • Una serie predefinida de preguntas fijas que Publio «comprende» y para las que puede dar una respuesta predefinida a los usuarios. Ejemplo: ¿Cómo puedo pedir publicaciones?
  • Publio puede identificar las entidades aprendidas automáticamente y utilizarlas en sus procesos en segundo plano para detectar parámetros de búsqueda, proporcionar resultados de búsqueda más precisos u opciones para perfeccionar la búsqueda. Estas entidades se basan en la clasificación y categorías de datos existentes, como el tesauro EuroVoc u otros cuadros de autoridades gestionados por EuroVoc: autores, formatos, lenguas, organismos (organizaciones) de la UE, puestos del ámbito funcional en el servicio público de la UE, etc. De este modo, a partir de la consulta del usuario, Publio puede comprender, por ejemplo, que el usuario busca una publicación sobre un tema específico o de un autor determinado.

¿Cómo funciona Publio?

Publio utiliza Language Understanding (LUIS) de Microsoft (apéndice 7) para procesar los mensajes de los usuarios (un enunciado escrito u oral), comprender la intención del usuario y determinar los elementos clave (entidades) en los que el usuario está interesado. A partir de la intención reconocida, Publio inicia un flujo de conversación personalizado con el fin de ayudar a los usuarios a obtener el resultado que buscan en algunos pasos sencillos.

En la actualidad, Publio aplica cuatro flujos de conversación principales:

  • Flujo de búsqueda de documentos para ayudar a los usuarios a buscar publicaciones o documentos jurídicos de la UE
  • Flujo de búsqueda de personas para ayudar a los usuarios a buscar funcionarios que trabajan en las instituciones de la UE
  • Flujo de búsqueda de organizaciones para ayudar a los usuarios a buscar organismos (organizaciones) de la UE
  • Flujo de preguntas y respuestas para responder a las preguntas frecuentes con una respuesta predefinida.

Si se reconoce un flujo de «búsqueda», el asistente virtual orientará al usuario al buscar el documento, la persona o la organización en cuestión haciendo preguntas sencillas al usuario y, en función de su respuesta, propondrá opciones de filtrado.

Para el flujo de preguntas y respuestas, el personal de la Oficina de Publicaciones mantiene una lista de preguntas frecuentes emparejadas con sus respuestas predefinidas. En caso de que se reconozca la intención del flujo de preguntas y respuestas y exista un alto grado de similitud entre la pregunta concreta del usuario y una de las preguntas almacenadas en el sistema, se enviará directamente al usuario una respuesta adecuada. Por ejemplo:

— si se reconoce la intención del flujo de preguntas y respuestas mediante una consulta como «¿dónde está mi pedido?», el asistente responderá con «Puede comprobar el estado del pedido en la sección “Mi pedido” de su perfil»;

— si se reconoce la intención del flujo de preguntas y respuestas mediante una consulta como «¿dónde puedo encontrar documentos para niños», el asistente responderá con «Las publicaciones para niños están disponibles en la sección infantil».

Los usuarios pueden hacer preguntas de forma escrita u oral. El chatbot registra la entrada de audio (las preguntas orales del usuario) y la envía a un motor de reconocimiento de voz que convierte lo dicho en texto. El servicio de conversión de voz en texto de Microsoft Azure procesa la entrada de audio (apéndice 8). A continuación, Publio muestra la entrada de audio, con las palabras interpretadas por el motor de reconocimiento de voz, antes de mostrar la respuesta tanto por escrito como de forma oral mediante voz sintetizada. Este intercambio es instantáneo (se produce inmediatamente) y efímero (no deja rastro alguno).

 

¿Cómo analiza Publio la pregunta y propone resultados?

Publio no utiliza tecnología generativa, por lo que no puede generar ni manipular el contenido de los usuarios.

Publio utiliza un modelo lingüístico de aprendizaje automático que está entrenado (en lo sucesivo, «modelo lingüístico entrenado») para aprender a reconocer y responder a los mensajes enviados por los usuarios. Este modelo se ocupa de procesar el mensaje o la consulta del usuario, determinar la intención del mensaje y proporcionar una respuesta adecuada. El proceso de entrenamiento de Publio consiste en proporcionar al modelo de aprendizaje automático una gran cantidad de datos de entrenamiento etiquetados que contienen ejemplos de mensajes enviados por usuarios y sus correspondientes intenciones y respuestas plausibles.

Publio utiliza el procesamiento del lenguaje natural y el modelo lingüístico entrenado para comprender la intención del usuario y extraer de la pregunta del usuario las entidades reconocidas (por ejemplo, término de búsqueda, tema, autor, fecha del documento, formato del documento). Publio utiliza estas entidades para ejecutar la búsqueda y mostrar los resultados de esta.





Si el resultado de la búsqueda es demasiado amplio, Publio continúa la conversación planteando preguntas adicionales al usuario para acotar los resultados de la búsqueda filtrando en función de otras entidades.

Las preguntas formuladas por Publio se limitan a identificar la intención del usuario, captar su objetivo y formular la pregunta de búsqueda correcta al corpus del contenido publicado en el Portal de la OP. Los resultados propuestos por Publio proceden íntegramente de este corpus.

Observaciones de los usuarios



El usuario final puede formular comentarios positivos, neutrales o negativos sobre su experiencia utilizando Publio en cualquier momento durante la conversación. Puede tratarse de un comentario manual iniciado por el usuario en cualquier momento o de una respuesta a una ventana emergente automática mostrada tras unos segundos de inactividad en la que se solicitan las observaciones del usuario. Además, las preguntas que Publio no «comprende» adecuadamente se registran de manera automática y un equipo de personas que trabajan en la Oficina de Publicaciones las procesa de forma periódica. Tanto las observaciones de los usuarios como el análisis de las preguntas que Publio no «comprende» adecuadamente se utilizan para reentrenar el modelo lingüístico con el objetivo de seguir mejorando de forma continua los servicios prestados a los usuarios finales.

 

Tratamiento de datos privados

Los datos disponibles en el Portal de la OP se tratan de conformidad con el Reglamento General de Protección de Datos (RGPD) de la UE y el Reglamento relativo al tratamiento de datos personales por las instituciones, órganos y organismos de la Unión (apéndice 9).

Publio no almacena, conserva ni archiva ningún elemento, ni los mensajes del usuario ni la información facilitada en sus respuestas.

Las observaciones recogidas se anonimizan de tal manera que no permiten vincular las observaciones al usuario del que se recogieron.

No se utilizan datos personales para la toma de decisiones automatizada, el rastreo o la elaboración de perfiles de ninguna manera posible.

Limitaciones en el momento actual

  • Transcripción de nombres por voz: aunque la mayoría de los nombres se «comprenden» y se transcriben correctamente, la extracción de nombres se basa en el aprendizaje automático y no es precisa al 100 %. Debido a las limitaciones del LUIS, algunos nombres no se extraen correctamente ni siquiera después de entrenar al modelo con los ejemplos específicos del conjunto de datos.
  • Fechas en francés y español: la «comprensión» de las fechas es menos precisa en español y francés en contextos más complejos. Por ejemplo, en español se reconoce el año cuando se utiliza la expresión «entre 2016 y 2017» sin necesidad de contexto adicional, mientras que no se reconoce cuando se introduce la expresión «entre el año 2019 y 2020». En inglés se reconoce la expresión «2 years ago», mientras que en francés no se reconoce «il y a 2 ans».
  • El reconocimiento de voz solo funciona en una sola lengua a la vez.
  • El reconocimiento de voz carece de modo ortográfico, con lo cual no tiene una característica que permita a los usuarios deletrear las palabras para asegurarse de que se transcriben correctamente.
  • El reconocimiento de la entidad del nombre no funciona bien en frases más largas cuando se combina con «Sra.»/«Srta.».

 

Oficina de Publicaciones de la Unión Europea, 16 de mayo de 2023.

1 Disponible en https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html

2 Estos siete requisitos que debe cumplir la IA fiable son los siguientes: 1) acción y supervisión humanas; 2) solidez técnica y seguridad de los programas informáticos; 3) gestión de la privacidad y de los datos; 4) transparencia; 5) diversidad, no discriminación y equidad; 6) bienestar social y ambiental; 7) rendición de cuentas.

3 Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión, Bruselas, 21.4.2021 [COM(2021) 206 final]; actualmente el documento está siendo debatido por los colegisladores, el Parlamento Europeo y el Consejo.

4 Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA), Bruselas, 28.9.2022 [COM(2022) 496 final].

5 Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial [2020/2014(INL)].

6 Véase el artículo 3.

7 https://www.luis.ai/

8 https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE5cCGB

9 Reglamento (UE) 2016/679, DO L 119 de 4.5.2016, p. 1; y Reglamento (UE) 2018/1725, DO L 295 de 21.11.2018, p. 39.