Publications Office of the EU
Legal notices: Virtual assistant, the explainability notice - A proposito dell’Ufficio delle pubblicazioni
Dockbar
Explainability Notice

Assistente virtuale : Informativa sulla spiegabilità

Publio - Assistente intelligente del portale dell'Ufficio delle pubblicazioni dell'Unione europea (portale OP)

Ultimo aggiornamento: 16.5.2023

Publio, l'assistente intelligente del portale dell'Ufficio delle pubblicazioni dell'Unione europea (portale OP), è uno strumento di intelligenza artificiale (IA) che interagisce con le persone fisiche ed effettua ricerche utilizzando parole chiave basate su informazioni pubblicamente disponibili sul portale OP.
La presente informativa sulla spiegabilità fornisce agli utenti informazioni sul quadro normativo vigente in materia di intelligenza artificiale e sui principi che disciplinano il funzionamento di Publio in questo contesto. L'Ufficio delle pubblicazioni dell'Unione europea è impegnato a favore della trasparenza e di un'IA affidabile e spiegabile.

Trasparenza in relazione all'intelligenza artificiale (IA): principi generali

La trasparenza e l'apertura delle azioni delle istituzioni dell'Unione sono fondamentali per il buon governo e la partecipazione della società civile, come stabilito all'articolo 15 del trattato sul funzionamento dell'Unione europea (TFUE), il quale prevede che:

"1. Al fine di promuovere il buon governo e garantire la partecipazione della società civile, le istituzioni, gli organi e gli organismi dell'Unione operano nel modo più trasparente possibile."

La Carta dei diritti fondamentali dell'Unione europea stabilisce, all'articolo 41 (Diritto ad una buona amministrazione), l'obbligo per l'amministrazione di motivare le proprie decisioni.

Nel documento Orientamenti etici per un'IA affidabile (appendice 1), serie di orientamenti elaborata nel 2019 dal gruppo di esperti ad alto livello sull'intelligenza artificiale istituito dalla Commissione europea, la trasparenza compare tra i sette requisiti (appendice 2) che i sistemi di IA dovrebbero soddisfare. Tali orientamenti individuano inoltre nella trasparenza una componente del principio di spiegabilità, che impone di rendere trasparenti le serie di dati e i processi tecnici coinvolti, nonché di comunicare apertamente le capacità e gli scopi dei sistemi di IA. Le serie di dati e i processi tecnici devono pertanto essere documentati, tracciabili, spiegabili e interpretabili.

I principi sopra elencati devono essere applicati allo sviluppo, alla diffusione e all'utilizzo di soluzioni e strumenti basati sull'IA da parte delle istituzioni, degli uffici, degli organi e delle agenzie dell'UE.

In virtù di questi principi generali, una persona deve essere informata fin dall'inizio del fatto che sta interagendo con un sistema di IA. In questo modo gli utenti possono scegliere consapevolmente se proseguire l'interazione o abbandonare lo strumento.

In linea con le norme in materia di trasparenza, gli utenti devono anche ricevere le informazioni necessarie ad aiutarli nell'interpretazione degli output del sistema e nell'utilizzo adeguato degli stessi.

Un'IA affidabile e spiegabile

Un'IA affidabile e spiegabile costituisce un obiettivo fondamentale per l'UE, attualmente impegnata nella definizione di un quadro normativo per l'IA. La proposta di regolamento della Commissione europea, del 21 aprile 2021, che stabilisce regole armonizzate sull'intelligenza artificiale (di seguito "regolamento sull'IA") (appendice 3) prevede due tipi principali di impegni da parte dei fornitori di soluzioni e strumenti basati sull'IA: la trasparenza e la fornitura di informazioni.

Gli utenti dei sistemi di IA hanno il diritto di ricevere informazioni. A tale diritto corrisponde una serie di obblighi, tra cui quelli di utilizzare il sistema in linea con le istruzioni e di monitorare le prestazioni dello strumento di IA in questione. Il rispetto di tali norme comporta la rendicontabilità di tutti i soggetti coinvolti.

La proposta di regolamento sull'IA stabilisce, all'articolo 52 (Obblighi di trasparenza per determinati sistemi di IA), che "1. I fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo. [...]".

La proposta di regolamento sull'IA segue un approccio basato sul rischio, differenziando tra gli usi dell'IA che creano: i) un rischio inaccettabile; ii) un rischio alto; iii) un rischio basso o minimo.

Publio, l'assistente intelligente del portale OP, è uno strumento di intelligenza artificiale (IA) che interagisce con le persone fisiche ed effettua ricerche utilizzando parole chiave basate su informazioni pubblicamente disponibili sul portale OP. Tali informazioni sono pubblicate sulla base del principio di trasparenza che sottende tutte le politiche e tutte le norme dell'UE. L'assistente intelligente non genera nuovi contenuti né manipola o influenza le scelte compiute dagli utenti, ma si limita a proporre loro possibili opzioni di filtraggio per la ricerca. Publio deve pertanto essere considerato rientrante nella categoria iii) "rischio basso" di cui alla proposta di regolamento sull'IA.

Il titolo IV (Trasparenza) della proposta di regolamento sull'IA stabilisce che la progettazione e il funzionamento dei sistemi di IA devono tenere conto dei rischi specifici che tali sistemi potrebbero comportare, vale a dire: 1) la manipolazione attraverso tecniche subliminali, ossia tecniche che agiscono senza che un utente ne sia consapevole, o 2) lo sfruttamento di gruppi vulnerabili al fine di provocare loro un danno psicologico o fisico. Obblighi di trasparenza più rigidi si applicano ai sistemi che: i) interagiscono con gli esseri umani; ii) sono utilizzati per rilevare emozioni o stabilire un'associazione con categorie (sociali) sulla base di dati biometrici; oppure iii) generano o manipolano contenuti ("deep fake"). Per quanto Publio interagisca con le persone fisiche, l'assistente intelligente non è stato concepito per rilevare emozioni a fini di manipolazione, né lo strumento contiene elementi in grado di condurre involontariamente a tale risultato. Publio non soddisfa pertanto i criteri summenzionati.

IA e responsabilità

Il 28 settembre 2022 la proposta di regolamento della Commissione europea sull'IA è stata integrata da una proposta relativa a un regime di responsabilità civile per l'IA - la direttiva sulla responsabilità da intelligenza artificiale (appendice 4) (di seguito "direttiva sulla responsabilità da IA") - a seguito della risoluzione del Parlamento europeo adottata a norma dell'articolo 225 TFUE (appendice 5)

Come indicato nella proposta di direttiva sulla responsabilità da IA, le norme vigenti in materia di responsabilità per colpa non sono adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull'IA. Secondo tali norme, coloro che subiscono un danno sono tenuti a dimostrare che si è verificata un'azione o un'omissione illecita, identificare la persona che ha causato il danno e accertare l'esistenza di un nesso di causalità. Le caratteristiche specifiche dell'IA, tra cui la complessità, l'autonomia e l'opacità (il cosiddetto effetto "scatola nera"), rendono difficile identificare la persona responsabile del danno derivante dall'uso dell'IA. I danneggiati possono pertanto essere dissuasi dal chiedere un risarcimento. Data la natura della questione relativa all'onere della prova, la proposta di direttiva sulla responsabilità da IA fornisce soluzioni innovative alleggerendo i requisiti di cui sopra attraverso il ricorso alla divulgazione e a presunzioni relative di non conformità.

La proposta di direttiva sulla responsabilità da IA fornisce mezzi efficaci per identificare le persone potenzialmente responsabili e le prove pertinenti. Essa stabilisce, ad esempio, che un organo giurisdizionale nazionale può ordinare la divulgazione di elementi di prova rilevanti (e la loro conservazione) in relazione a specifici sistemi di IA ad alto rischio che si sospetta abbiano cagionato danni (appendice 6). Inoltre, fatti salvi i requisiti di cui all'articolo 4 della proposta di direttiva, gli organi giurisdizionali nazionali presumono l'esistenza del nesso di causalità tra la colpa del convenuto e l'output prodotto da un sistema di IA (o la mancata produzione di un output da parte di tale sistema).

Come concluso nella relazione che accompagna la proposta di direttiva sulla responsabilità da IA, "[t]ali norme efficaci in materia di responsabilità civile presentano il vantaggio aggiuntivo di fornire a tutti coloro che sono coinvolti in attività relative ai sistemi di IA un ulteriore incentivo a rispettare gli obblighi relativi alla condotta che ci si aspetta da loro".

Informazioni su Publio

Termini e definizioni

Termine Definizione
Tabelle delle autorità Le tabelle delle autorità (note anche come elenchi delle autorità designate o NAL) sono utilizzate per armonizzare e standardizzare i codici e le relative etichette utilizzate in vari ambienti (piattaforme web, sistemi e applicazioni) e per facilitare gli scambi di dati tra le istituzioni dell'UE, ad esempio nel contesto dei processi decisionali. Esempi di tali tabelle sono gli elenchi codificati di lingue, di paesi o di persone giuridiche.
Chatbot Un chatbot è un sistema di intelligenza artificiale (IA) progettato per simulare la conversazione umana e interagire con gli utenti tramite testo o comunicazione vocale. Utilizza tecniche di elaborazione del linguaggio naturale (NLP) per comprendere gli input degli utenti e rispondervi, fornendo assistenza automatizzata e informazioni oppure eseguendo compiti specifici sulla base di regole o algoritmi predefiniti. I chatbot sono comunemente utilizzati in varie applicazioni (ad esempio servizi di assistenza alla clientela, assistenti virtuali e piattaforme di messaggistica online) per facilitare la comunicazione e fornire risposte istantanee alle query degli utenti.
IA conversazionale L'IA conversazionale è una forma di intelligenza artificiale che facilita lo svolgimento in tempo reale di una conversazione simile a quella umana tra un essere umano e un computer.
Flusso conversazionale Il termine "flusso conversazionale" indica la progressione lineare e logica di una conversazione (percorso dell'utente) tra il chatbot e l'utente. Si riferisce al modo in cui un chatbot comprende l'intenzione dell'utente, fornisce risposte adeguate e orienta la conversazione verso gli obiettivi o le finalità dichiarati dell'utente.
Entità In questo contesto il termine "entità" indica un dato che può essere estratto dall'input dell'utente ed è pertinente allo scopo dell'utente stesso, ossia consente la comprensione di tale scopo. Questi dati sono identificati e memorizzati per estrarre le esatte informazioni cercate dall'utente. Un esempio di entità è l'autore di un determinato articolo.
EU Vocabularies o EuroVoc EuroVoc (EU Vocabularies) è una serie specifica di tabelle delle autorità multilingue e multidisciplinari gestita dall'Ufficio delle pubblicazioni e riguardante le attività dell'UE. Contiene termini nelle 24 lingue ufficiali dell'UE e in tre lingue di paesi candidati all'adesione all'UE: albanese, macedone e serbo.
Intenzione In questo contesto il termine "intenzione" indica l'obiettivo prefigurato dall'utente quando questi digita o formula oralmente una domanda o un commento (query). L'intenzione rappresenta un'idea o un concetto che è possibile racchiudere in un messaggio (l'espressione) indirizzato dall'utente. Un esempio di intenzione è la volontà dell'utente di cercare un argomento, una pubblicazione o una persona specifici.
Modello linguistico Un modello linguistico è un tipo di programma di intelligenza artificiale (IA) concepito per analizzare e comprendere il linguaggio naturale. I modelli linguistici utilizzano tecniche statistiche e probabilistiche per anticipare le probabili parole o espressioni successive in una determinata frase o sequenza di testo. In altri termini, un modello linguistico è uno strumento utilizzabile per generare o completare frasi sulla base del contesto e del contenuto dell'input.
Comprensione del linguaggio (LUIS) Servizio di IA conversazionale basato sul cloud che applica un'intelligenza di apprendimento automatico personalizzata al testo in linguaggio naturale di una conversazione di un utente per prevedere il significato complessivo ed estrarre informazioni pertinenti e dettagliate.
Apprendimento automatico (ML) L'apprendimento automatico (ML) è un tipo di intelligenza artificiale (IA) che consente alle applicazioni software di "imparare" dalle pratiche e dai riscontri passati, diventando così più precise nel prevedere i risultati pur senza essere esplicitamente programmate a tal fine.
Elaborazione del linguaggio naturale (NLP) L'elaborazione del linguaggio naturale (NLP) è un settore dell'intelligenza artificiale (IA) che consente ai computer di analizzare e comprendere il linguaggio umano, sia scritto che parlato.
Percorso di ricerca Il termine "percorso di ricerca" indica la sequenza delle interazioni compiute da un utente durante la ricerca di informazioni specifiche. Il processo guida l'utente attraverso una serie di domande e risposte per individuare e realizzare l'intenzione di ricerca dell'utente. Il percorso di ricerca in un chatbot prevede la comprensione della query dell'utente, il recupero di informazioni pertinenti presso una banca dati o una base di conoscenze e la presentazione delle informazioni all'utente in una forma facilmente comprensibile e adeguata alle sue esigenze.
Percorso dell'utente L'esperienza di una persona durante una sessione di utilizzo di un sito web o di un'applicazione, consistente nella serie di azioni svolte per raggiungere un determinato obiettivo su tale sito web o applicazione.
Espressione Input dell'utente costituito da qualsiasi messaggio scritto o vocale formulato durante una conversazione. Un'espressione può essere composta da un'unica parola o da più parole, come nel caso di una domanda o di una frase.

Cos'è Publio?

Publio, l'assistente intelligente del portale dell'Ufficio delle pubblicazioni (portale OP), è uno strumento di IA che interagisce con le persone fisiche ed effettua ricerche utilizzando parole chiave basate su informazioni pubblicamente disponibili sul portale OP. Publio combina tecniche di intelligenza artificiale (IA) conversazionali, come l'elaborazione del linguaggio naturale (NLP) e l'apprendimento automatico (ML), con il riconoscimento vocale interattivo e i sistemi di ricerca tradizionali per aiutare gli utenti a trovare le pubblicazioni e le norme dell'UE e i referenti presso le istituzioni europee.

In particolare l'assistente intelligente consente lo svolgimento di conversazioni vocali o testuali tra gli utenti finali e il portale OP. L'assistente intelligente è attualmente disponibile in inglese, francese e spagnolo. Pur essendo utilizzabile da tutti, fornisce anche una soluzione adatta alle esigenze delle persone con disabilità di lettura che ne aumenta l'accessibilità. Consente inoltre la ricerca conversazionale, una nuova modalità di ricerca grazie alla quale, proprio come in una normale conversazione, gli utenti possono comunicare con frasi intere con un assistente vocale basato sull'IA e ricevere risposte da quest'ultimo; lo scambio tra l'utente e l'assistente intelligente avviene così sotto forma di conversazione.

Quale tipo di dati utilizza Publio?

Publio utilizza le informazioni pubblicamente disponibili sul portale OP. Tali informazioni sono pubblicate sulla base del principio di trasparenza applicabile a tutte le politiche e a tutte le norme dell'UE. Partendo da tale corpus, Publio utilizza le classificazioni e le categorie disponibili nel portale OP, quali soggetti, autori o formati Eurovoc, per guidare e perfezionare la conversazione, in modo da aiutare l'utente a effettuare ricerche nelle tre collezioni principali del portale OP: pubblicazioni dell'UE, diritto dell'UE e repertorio elettronico dell'UE (EU Whoiswho).

Publio utilizza un modello linguistico esistente per comprendere le domande rivoltegli dagli utenti e per guidarli durante l'intero percorso di ricerca. Sulla base dei riscontri degli utenti, il modello linguistico di Publio è costantemente migliorato e addestrato per soddisfare le aspettative degli utenti stessi e far fronte alla diversità dei loro input nelle tre lingue supportate.

L'addestramento riguarda molteplici componenti del sistema sottostante di Publio:

 

  • una serie predefinita di espressioni associate a diverse possibili forme di intenzione, attraverso cui Publio è in grado di cogliere innanzitutto l'obiettivo finale dell'utente e, in secondo luogo, di guidarlo passo dopo passo verso il raggiungimento di tale obiettivo;
  • una serie predefinita di domande fisse che Publio "comprende" e per le quali è in grado di fornire una risposta predefinita agli utenti (esempio: come si ordinano le pubblicazioni?);
  • entità apprese meccanicamente, che Publio è in grado di identificare e utilizzare nei suoi processi di background per individuare i parametri di ricerca, fornire risultati di ricerca più puntuali o opzioni per perfezionare ulteriormente la ricerca. Tali entità si basano sulla classificazione e sulle categorie di dati esistenti, quali i thesauri o altre tabelle delle autorità gestite da EuroVoc: autori, formati, lingue, organi (organizzazioni) dell'UE, ruoli funzionali nel servizio pubblico dell'UE ecc. In questo modo Publio può, ad esempio, basarsi sulla query dell'utente per dedurre l'argomento o l'autore specifico della pubblicazione cercata.

Come funziona Publio?

Publio si basa sul sistema di comprensione del linguaggio (LUIS) di Microsoft (appendice 7) per elaborare l'input dell'utente (un'espressione scritta o verbale), comprendere l'intenzione dell'utente e individuare gli elementi chiave (entità) a cui è interessato. Sulla base dell'intenzione riconosciuta, Publio avvia un flusso conversazionale su misura per aiutare l'utente a raggiungere il risultato desiderato in pochi, semplici passi.

Al momento Publio attua quattro principali flussi della conversazione:

  • flusso di ricerca documenti, per aiutare gli utenti a cercare pubblicazioni dell'UE o documenti giuridici dell'UE;
  • flusso di ricerca persone, per aiutare gli utenti a cercare funzionari pubblici impiegati dalle istituzioni dell'UE;
  • flusso di ricerca organizzazioni, per aiutare gli utenti a cercare organi (organizzazioni) dell'UE;
  • flusso di domande e risposte (QnA), per rispondere a domande frequenti con una risposta predefinita.

Quando riconosce un flusso "di ricerca", l'assistente virtuale guida l'utente nella ricerca di un documento, di una persona o di un'organizzazione pertinente ponendo domande semplici e proponendo opzioni di filtraggio in base alle risposte dell'utente.

Per il flusso QnA il personale dell'Ufficio delle pubblicazioni gestisce un elenco di coppie di domande frequenti e relative risposte predefinite. Se l'intenzione del QnA è riconosciuta e la domanda posta dall'utente presenta un grado di somiglianza elevato con una delle domande memorizzate nel sistema, l'utente riceverà direttamente una risposta adeguata. Ad esempio:

- se riconosce l'intenzione del QnA dopo una query del tipo "Dove si trova il mio ordine?", l'assistente risponderà "Puoi controllare lo stato del tuo ordine nella sezione 'Il mio ordine' del tuo profilo";

- se riconosce l'intenzione del QnA dopo una query del tipo "Dove posso trovare documenti per bambini", l'assistente risponderà "Le pubblicazioni per bambini sono disponibili nell'Angolo dei bambini".

Gli utenti possono porre domande per iscritto o a voce. Il chatbot cattura l'input audio (le domande formulate a voce dall'utente) e lo invia a un motore di riconoscimento vocale che converte le parole pronunciate in testo. L'input audio è elaborato dal servizio di sintesi vocale di Microsoft Azure (appendice 8). Publio visualizza quindi l'input audio, con le parole interpretate dal motore di riconoscimento vocale, per poi visualizzare la risposta sia per iscritto che in forma vocale mediante voce sintetizzata. Questo scambio è istantaneo (avviene all'istante) ed effimero (non lascia traccia).

 

In che modo Publio analizza la domanda e propone i risultati?

Publio non utilizza la tecnologia generativa, per cui non è in grado di generare o manipolare contenuti dell'utente.

Per imparare a riconoscere gli input degli utenti e a fornire le relative risposte, Publio utilizza un modello linguistico di apprendimento automatico addestrato (modello linguistico addestrato). Il modello svolge le funzioni di elaborazione del messaggio o della query dell'utente, individuazione dell'intenzione associata al messaggio e formulazione di una risposta adeguata. Nel processo di addestramento di Publio il modello di apprendimento automatico riceve una vasta mole di dati di formazione etichettati, tra cui esempi di input dell'utente e di relative intenzioni e risposte plausibili.

Publio utilizza l'elaborazione del linguaggio naturale e il modello linguistico addestrato per comprendere l'intenzione dell'utente ed estrarre dalla domanda dell'utente le entità riconosciute (ad esempio termine di ricerca, argomento, autore, data del documento o formato del documento). Utilizzando queste entità Publio esegue la ricerca e ne visualizza il risultato.





Se il risultato della ricerca è troppo ampio, Publio prosegue la conversazione ponendo all'utente domande supplementari per restringere il risultato della ricerca applicando un filtro ad altre entità.

Le domande formulate da Publio si limitano all'individuazione dell'intenzione dell'utente, alla rilevazione del suo scopo e alla formulazione della query di ricerca corretta al corpus dei contenuti pubblicati sul portale OP. I risultati proposti da Publio provengono interamente da questo corpus.

Commenti degli utenti



In qualsiasi momento della conversazione l'utente finale può fornire un riscontro positivo, neutro o negativo sulla propria esperienza di utilizzo di Publio. Può trattarsi di un riscontro manuale attivato dall'utente in un dato momento o in risposta a un pop-up automatico visualizzato dopo alcuni secondi di inattività e che richiede il riscontro dell'utente. Inoltre le domande non correttamente "comprese" da Publio sono automaticamente registrate e un gruppo di membri del personale dell'Ufficio delle pubblicazioni le elabora con cadenza periodica. Tanto i riscontri degli utenti quanto l'analisi delle domande non adeguatamente "comprese" da Publio sono utilizzati per riqualificare il modello linguistico al fine di migliorare continuamente i servizi forniti agli utenti finali.

 

Trattamento dei dati privati

L'elaborazione dei dati disponibili sul portale OP avviene in conformità del regolamento generale dell'UE sulla protezione dei dati (GDPR) e del regolamento sul trattamento dei dati personali da parte delle istituzioni, degli organi e degli organismi dell'UE (appendice 9).

Publio non memorizza, conserva o archivia alcun elemento, inclusi l'input dell'utente e quelli forniti mediante le risposte di Publio.

I riscontri raccolti sono resi anonimi in modo tale da non consentire di ricollegarli all'utente presso il quale sono stati raccolti.

I dati personali non sono utilizzati in alcun modo per processi decisionali, tracciamento o profilazione automatizzati.

Limiti nella fase attuale

  • Trascrizione del nome mediante voce: sebbene la "comprensione" e la trascrizione della maggior parte dei nomi avvengano correttamente, l'estrazione dei nomi si basa sull'apprendimento automatico e non è sempre precisa. Anche dopo l'addestramento del modello con gli esempi specifici dell'insieme di dati, l'estrazione di alcuni nomi non avviene correttamente a causa delle limitazioni di LUIS.
  • Date in francese e in spagnolo: in contesti più complessi, la "comprensione" della data risulta meno precisa in spagnolo e francese. Ad esempio, in spagnolo l'anno viene riconosciuto se si utilizza l'espressione "entre 2016 y 2017" senza ulteriore contesto, mentre ciò non accade se si utilizza l'espressione "entre el año 2019 y 2020". In inglese "2 years ago" è riconosciuto, mentre in francese "il y a 2 ans" non lo è.
  • Il riconoscimento vocale funziona in una sola lingua per volta.
  • Il riconoscimento vocale non dispone di una modalità ortografica, ossia non presenta una funzione di sillabazione delle parole carattere per carattere che garantisca una trascrizione esatta.
  • Il riconoscimento dell'entità relativa al nome non funziona in modo ottimale nelle frasi più estese quando l'entità è combinata con "sig.ra"/"sig.na".

 

Ufficio delle pubblicazioni dell'Unione europea, 16 maggio 2023.

1 Disponibile all'indirizzo https://ec.europa.eu/futurium/it/ai-alliance-consultation.1.html

2 I sette requisiti che un'IA affidabile dovrebbe soddisfare sono: 1) intervento e sorveglianza umani; 2) robustezza tecnica e sicurezza del software; 3) riservatezza e corretta governance dei dati; 4) trasparenza; 5) diversità, non discriminazione ed equità; 6) benessere sociale e ambientale; 7) rendicontabilità e responsabilità.

3 Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (LEGGE SULL'INTELLIGENZA ARTIFICIALE) e modifica alcuni atti legislativi dell'Unione (COM(2021) 206 final), Bruxelles, 21.4.2021; il documento è attualmente all'esame dei colegislatori (Parlamento europeo e Consiglio).

4 Proposta di direttiva del Parlamento europeo e del Consiglio relativa all'adeguamento delle norme in materia di responsabilità civile extracontrattuale all'intelligenza artificiale (direttiva sulla responsabilità da IA) (COM(2022) 496 final), Bruxelles, 28.9.2022.

5 Risoluzione del Parlamento europeo, del 20 ottobre 2020, recante raccomandazioni alla Commissione su un regime di responsabilità civile per l'intelligenza artificiale (2020/2014(INL)).

6 Cfr. articolo 3.

7 https://www.luis.ai/

8 https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE5cCGB

9 Regolamento (UE) 2016/679 (GU L 119 del 4.5.2016, pag. 1) e regolamento (UE) 2018/1725 (GU L 295 del 21.11.2018, pag. 39).