AI Generativa: la mappa completa delle normative Ue applicabili

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Finanziamenti personali e aziendali

Prestiti immediati

 


Non c’è dubbio che la disciplina dell’AI ACT ed in particolare la parte che riguarda i sistemi di intelligenza artificiale generativa sia oggi di grande interesse.

Ciò non solo per l’esplosione in generale dell’utilizzo dell’Intelligenza Artificiale, ma in particolare perché le nuove norme contenute nell’AI ACT relative ai modelli per finalità generali (categoria a cui appartiene l’AI generativa) dovranno trovare applicazione a far data dal 2 agosto 2025 (art. 113 AI ACT).

Ma non c’è solo l’AI ACT: il quadro giuridico delle norme da applicare è molto più ampio.

Microcredito

per le aziende

 

Allora, partendo dall’AI ACT, vediamo anche in sintesi quali sono le altre discipline applicabili ed i tempi di tale applicazione.

AI Act – Reg. Ue 2024/1689

Il considerando 97 dell’AI ACT definisce i modelli di IA per finalità generali come modelli che hanno “la capacità di svolgere con competenza un’ampia gamma di compiti distinti”.

I modelli di AI non costituiscono di per sé “sistemi di IA (art. 3 lett. 1 AI ACT), ma sono generalmente “integrati” nei sistemi di IA e ne fanno parte.

Dato poi l’impatto che tali modelli possono avere, l’AI ACT stabilisce regole specifiche per l’immissione sul mercato dei modelli stessi.

Più esattamente si distingue tra:

Modelli per finalità generali: gli obblighi per i fornitori

L’articolo 53 AI ACT stabilisce che il fornitore deve:

1) redigere e mantenere aggiornata la documentazione tecnica del modello,

2) elaborare, mantenere aggiornate e mettere a disposizione informazioni e documentazione per i fornitori di sistemi di IA che intendono integrare il modello nei loro sistemi

Finanziamenti personali e aziendali

Prestiti immediati

 

3) attuare una politica volta ad adempiere al diritto dell’Unione in materia di diritto d’autore e diritti connessi

4) redigere e mettere a disposizione del pubblico una sintesi sufficientemente dettagliata dei contenuti utilizzati per l’addestramento del modello.

Sono esclusi di tali obblighi i modelli Open source (art. 53 par. 2 AI ACT)

Modelli per finalità generali con rischio sistemico: gli obblighi da rispettare

I modelli di AI per finalità generali che presentano un rischio sistemico (secondo la definizione dell’art. 51) devono rispettare, oltre agli obblighi di cui sopra, anche gli obblighi aggiuntivi previsti all’art. 55.

Più esattamente:

1) effettuare una valutazione dei modelli in conformità a protocolli e strumenti standardizzati, compreso il test contraddittorio (adversarial testing),

2) valutare e attenuare i possibili rischi sistemici a livello dell’Unione,

Sconto crediti fiscali

Finanziamenti e contributi

 

3) tenere traccia, documentare e riferire senza indebito ritardo all’ufficio per l’IA e, se del caso, alle autorità nazionali competenti, le informazioni pertinenti su incidenti gravi ed eventuali misure correttive

4) garantire un livello adeguato di protezione della cibersicurezza per il modello e l’infrastruttura fisica.

Inoltre i fornitori di modelli di IA per finalità generali che soddisfano le condizioni per essere classificati come modelli con rischio sistemico devono darne informazione alla Commissione (art. 52 AI ACT)

I modelli per finalità generali (con rischi sistemici o no) potranno poi essere incorporati in sistemi di AI che possono essere considerati

  • Sistemi AI ad alto rischio (ed in questo caso dovranno rispondere a tutti gli obblighi del Capo III – da art. 6 ad art. 49 AI ACT) oppure
  • Sistemi AI non ad Alto Rischio (ed in questo caso, oltre all’art. 50 AI ACT sulla trasparenza in caso di utilizzo umano, il Considerando 27 incoraggia l’adozione di principi etici elaborati l’AI HLEG con contribuiscano a garantire che l’IA sia affidabile ed eticamente valida).

Sicurezza generale dei prodotti – Reg. Ue 2023/988

Dal 13 dicembre 2024 trova poi applicazione – sicuramente per i sistemi AI non ad alto rischio (per gli altri la discussione è aperta) – il nuovo Regolamento sulla sicurezza generale dei prodotti, noto come General Product Safety Regulation – GPSR.

Il GPSR allarga infatti la nozione di “prodotto” ricomprendendo anche i software (art, 1 GPSR) e all’art. 2 stabilisce che il regolamento stesso si applica “ai prodotti immessi o messi a disposizione sul mercato, nella misura in cui non esistano disposizioni specifiche del diritto dell’Unione aventi lo stesso obiettivo che disciplinano la sicurezza dei prodotti

Conto e carta

difficile da pignorare

 

in questione” .

Poiché l’AI ACT non contiene discipline specifiche sulla safety dei sistemi di AI non ad alto rischio, è chiaro che devono già trovare applicazione le norme del GPSR.

In particolare gli obblighi di sicurezza sono stabiliti all’art. 6 e per quando riguarda nello specifico l’AI

  • richiede di valutare gli effetti dell’ interconnessione con altri prodotti, rilevante per sistemi IA connessi (art. 6 lett. g)
  • considera le funzionalità di apprendimento ed evoluzione dei prodotti come fattore nella valutazione della sicurezza (art. 6 lett. h)

GDPR – Reg. Ue 2026/679

Per quanto attiene al GDPR, non vi è dubbio che la disciplina dell’AI ACT possa considerarsi “neutra”: vale a dire che la disciplina sulla protezione dei dati (che è disciplina orizzontale per la tutela delle persone fisiche nel trattamento dei dati) trova piena applicazione in tutti i casi disciplinati dall’AI ACT (che peraltro è disciplina verticale e regola l’immissione sul mercato di prodotti).

Tralasciando in questa sede tutte le problematiche connesse all’applicazione del GDPR nell’utilizzo di sistemi di AI, mi vorrei concentrare sul recentissimo documento del EDPB Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models”, adottato il 17 dicembre 2024.

L’opinion, che nasce da una richiesta della autorità Irlandese, affronta in particolare tre temi critici collegati all’applicazione del GDPR nello sviluppo e all’uso di “modelli” di IA.

Anonimizzazione dei modelli IA

Secondo l’EDPB i modelli IA addestrati con dati personali non possono sempre – automaticamente – essere considerati anonimi. Per dichiarare che un modello di AI è anonimo, è necessario valutare se i dati personali possano essere estratti (direttamente o indirettamente) dai parametri del modello e se i dati personali possano essere ricavati dalle risposte generate dal modello.

Conto e carta

difficile da pignorare

 

Interesse legittimo come base giuridica

L’Interesse legittimo può essere una base giuridica lecita per la raccolta dati finalizzati allo sviluppo della AI generativa. Ovviamente l’applicabilità dell’interesse legittimo deve essere valutato attraverso un test che analizzi: se l’interesse è lecito e reale, se il trattamento è “necessario” e “proporzionato” rispetto agli obiettivi perseguiti, se gli interessi del titolare prevalgono sui diritti fondamentali degli interessati (si veda la recente l’EDPB Guidelines on the processing of personal data based on legitimate interest (e la Corte di Giustizia delle Comunità Europee ha emanato la sentenza 4 ottobre 2024 – C-621/22 su un caso di applicazione del legittimo interesse, sentenza veramente interessante).

L’EDPB sottolinea l’importanza di minimizzare i dati utilizzati e di garantire la trasparenza verso gli interessati.

Conseguenze del trattamento illecito

Da ultimo l’EDPB stabilisce che i modelli sviluppati con dati personali trattati illecitamente possono comportare diverse conseguenze:

  • se i dati personali sono conservati nel modello, il trattamento successivo deve essere valutato caso per caso.
  • se un altro titolare utilizza il modello, deve verificare che lo sviluppo sia avvenuto legalmente.
  • se il modello è stato anonimizzato, il GDPR non si applica alle sue operazioni successive.

Data Act – Reg. Ue 2023/2854

Abbiamo poi il Data Act.

Tale regolamento ha come obiettivo quello di introdurre norme armonizzate per promuovere e potenziare l’accesso ai dati ed al loro utilizzo: tale obiettivo viene raggiunto introducendo una serie di regole finalizzate a promuovere la condivisione dei dati tra diversi attori.

Il Data Act Si applica a tutti i prodotti “connessi”: vale a dire a tutti i prodotti che ottengono, generano o raccolgono “dati relativi al suo utilizzo o al suo ambiente e che è in grado di comunicare dati del prodotto tramite un servizio di comunicazione elettronica, una connessione fisica o l’accesso su dispositivo”

Quindi anche ai sistemi di AI che rientrano in questa definizione: un esempio molto comune sono gli assistenti virtuali.

Contributi e agevolazioni

per le imprese

 

Nello specifico poi il Data Act, avendo l’obiettivo di facilitare l’accesso e la circolazione dei dati, prevede une serie di nuovi obblighi di progettazione in capo ai fabbricanti dei prodotti connessi (escluse però da tali obblighi le micro e piccole imprese secondo la raccomandazione 2003/361/EC).

Più precisamente l’art. 3 stabilisce infatti che i “prodotti connessi” sono progettati e fabbricati in maniera tale che i dati (compresi i metadati) siano, per impostazione predefinita, “accessibili all’utente in modo facile, sicuro, gratuito, in un formato completo, strutturato, di uso comune e leggibile da dispositivo automatico e, ove pertinente e tecnicamente possibile, in modo diretto”.

In altre parole i “prodotti connessi” devono essere progettati e realizzati “accessibili by design e by default”: ovviamente tale accessibilità aumentando il perimetro di vulnerabilità, richiederà un aumento degli adempimenti relativi alla cybersecurity.

Lo stesso art. 3 Data Act stabilisce poi un ulteriore importante obbligo di natura informativa.

Il fornitore del prodotto connesso (che potrebbe non essere il Titolare dei dati) deve infatti, prima della conclusione del contratto fornire all’utente una serie di informazioni, tra cui in particolare :

  • la natura, il volume stimato e la frequenza di raccolta dei dati del prodotto che il potenziale titolare dei dati dovrebbe ottenere e le modalità con cui l’utente può accedere a tali dati o reperirli;
  • la natura e il volume stimato dei dati di un servizio correlato che saranno generati, nonché le modalità con cui l’utente può accedere a tali dati o reperirli
  • l’identità del potenziale titolare dei dati, ad esempio il suo nome commerciale e l’indirizzo geografico al quale è stabilito e, se del caso, di altre parti coinvolte nel trattamento dei dati;
  • i mezzi di comunicazione che consentono di contattare rapidamente il potenziale titolare dei dati e di comunicare efficacemente con quest’ultimo;
  • il modo in cui l’utente può chiedere che i dati siano condivisi con terzi e, se del caso, porre fine alla condivisione dei dati;
  • la durata del contratto tra l’utente e il potenziale titolare dei dati, nonché le modalità per risolvere tale contratto.

Il Data Act dell’Unione Europea diventerà efficace il 12 settembre 2025.

Cyber Resilience Act – Reg. Ue 2024/2847

Anche il Regolamento UE 2024/2847, Cyber Resilience Act – CRA, si applica ai sistemi di intelligenza artificiale.

Carta di credito con fido

Procedura celere

 

Il CRA si applica infatti a tutti i prodotti con elementi digitali, inclusi software e hardware, che hanno una connessione dati diretta o indiretta con altri dispositivi o reti.

Tale definizione include potenzialmente molti sistemi di AI.

In generale i fornitori di sistemi di AI che rientrano nell’ambito del CRA dovranno:

– condurre un’analisi dei rischi e delle vulnerabilità

– progettare il prodotto per garantire un livello adeguato di cybersecurity

– fornire aggiornamenti di sicurezza per l’intero ciclo di vita del prodotto

– fornire documentazione tecnica e informazioni sulla trasparenza

– fegnalare tempestivamente le vulnerabilità alle autorità competenti

Nello specifico poi l’art. 12 del CRA stabilisce che i prodotti con elementi digitali “coperti” che rispettano il CRA e che sono classificati come sistemi di IA ad alto rischio debbono considerarsi conformi ai requisiti di cybersecurity stabiliti dall’articolo 15 dell’AI Act. Più precisamente la valutazione di conformità per questi Sistemi AI seguirà generalmente la procedura dell’AI Act, ma tale valutazione dovrà includere anche i requisiti dell’Allegato I del CRA e, quindi, la Dichiarazione di Conformità UE ex AI ACT dovrà coprire anche tali requisiti del CRA.

I tempi di applicazione il Cyber Resilience Act

Per quanto riguarda i tempi di applicazione il Cyber Resilience Act (CRA) trova applicazione secondo i seguenti step:

  • 10 dicembre 2024: Il regolamento è entrato in vigore.
  • 11 giugno 2026: entrano in vigore le disposizioni relative agli organismi di valutazione della conformità.
  • 11 settembre 2026: diventano applicabili gli obblighi per i produttori di segnalare vulnerabilità sfruttabili e incidenti informatici.
  • 11 dicembre 2027: il CRA diventa pienamente applicabile, con l’entrata in vigore di tutti i requisiti di cybersecurity per i prodotti con elementi digitali

EAA – Direttiva 2019/882 sull’accessibilità

Da ultimo l’European Accessibility Act (EAA), formalmente noto come Direttiva (UE) 2019/882 sui requisiti di accessibilità dei prodotti e dei servizi.

Si tratta di una direttiva che fa parte della “Strategia per i Diritti delle Persone con Disabilità 2021-2030” (marzo 2021) con la quale si prevede un piano decennale volto a migliorare la vita delle persone con disabilità in Europa.

Tra la Direttiva EAA e l’AI ACT vi sono molte connessioni:

  • l’art. 16 par. 1 lett- l) AI ACT relativamente ai Sistemi AI ad Alto Rischio si prevede espressamente che tali sistemi debbano essere conformi alla 2019/882 (EAA) (ed alla alle Direttive UE 2016/2102 relativa all’accessibilità dei siti web e delle applicazioni mobili degli enti pubblici)
  • l’Articolo 24 dell’EAA, a sua volta, stabilisce che qualsiasi prodotto o servizio che rispetti i requisiti di accessibilità dell’EAA si presume conforme alle relative obbligazioni stabilite in altri atti dell’Unione, incluso l’AI Act
  • l’EAA fornisce chiarezza legale su come garantire l’accessibilità dei prodotti e servizi digitali, e questi requisiti possono essere facilmente applicati ai sistemi AI
  • l’AI Act obbliga gli Stati membri a elaborare codici di condotta per tutti i sistemi AI, inclusa la valutazione e la prevenzione di qualsiasi impatto negativo sulle persone con disabilità (art. 95 AI ACT)
  • l’AI Act proibisce i sistemi AI che sfruttano le vulnerabilità delle persone con disabilità (art. 5 AI ACT)

La direttiva è stata adottata nel 2019, gli Stati membri dovevano recepirla entro il 28 giugno 2022; la piena applicazione della direttiva è comunque prevista per il 28 giugno 2025.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link