Oggi vorremmo presentarvi un profondo e stimolante articolo del noto esperto di privacy e GDPR, Massimiliano Nicotra. Il suo ultimo pezzo, intitolato “AI Act e fundation models: grosso guaio per ChatGPT e i suoi fratelli”, si concentra sulle recenti modifiche apportate al regolamento sull’intelligenza artificiale (AI Act) dal Parlamento Europeo e sui possibili effetti che queste avranno sul campo dei modelli di base. L’articolo completo può essere letto sul suo profilo LinkedIn.
Nicotra evidenzia una serie di aspetti preoccupanti che emergono da queste modifiche. Per cominciare, il testo introduce nuovi principi come l’intervento umano, la sorveglianza, la trasparenza, la robustezza tecnica e la sicurezza, che ora sono estesi anche ai modelli di base. Questa espansione, pur essendo necessaria, solleva numerose questioni sulla sua applicazione pratica.
Inoltre, il regolamento impone una serie di nuovi obblighi specifici ai produttori di tali modelli. Ad esempio, la conformità al regolamento deve essere garantita indipendentemente dalla modalità e dai canali di distribuzione del modello, incluso l’open source. Altri obblighi riguardano l’identificazione e l’attenuazione dei rischi, l’utilizzo di insiemi di dati adeguatamente gestiti, la progettazione e lo sviluppo del modello in termini di prestazioni, prevedibilità, interpretabilità e cibersicurezza, tra gli altri.
In risposta a queste nuove disposizioni, il Centro di Ricerca sui modelli fondazionali dell’Università di Stanford ha condotto una ricerca, analizzando i 10 modelli di base attualmente più diffusi sul mercato. La ricerca ha rivelato che nessuno di questi modelli è pienamente conforme alle disposizioni dell’AI Act, evidenziando un potenziale problema per l’industria dell’IA.
Nicotra sostiene che l’incertezza deriva principalmente dalla formulazione generica di alcune disposizioni del regolamento che, da un punto di vista tecnico, possono essere interpretate in vari modi. Questo rende difficile capire come rispettare pienamente le nuove normative.
In conclusione, Nicotra esprime la preoccupazione che questo approccio burocratico all’innovazione potrebbe rallentare o addirittura ostacolare lo sviluppo di nuove tecnologie di IA. Tuttavia, sottolinea anche l’importanza di una regolamentazione solida e ragionata che protegga gli utenti senza soffocare l’innovazione.
Nicotra ci ricorda che “l’obiettivo principale di qualsiasi normativa dovrebbe essere quello di bilanciare le necessità di sicurezza, privacy e innovazione, e non di sacrificare l’uno per l’altro.” Pertanto, secondo Nicotra, è fondamentale che i legislatori lavorino in stretta collaborazione con gli esperti del settore per comprendere meglio le implicazioni delle tecnologie emergenti e per creare regolamenti che siano sia pratici che efficaci.
Vi invitiamo a leggere l’articolo completo di Massimiliano Nicotra per un’analisi più approfondita di queste questioni.