Il Blocco di ChatGPT in Italia: Perché l’Autorità per la Protezione dei Dati si sbaglia

OpenAI

Il Blocco di ChatGPT in Italia: Perché l’Autorità per la Protezione dei Dati si sbaglia

Il 30 marzo 2023, l’Autorità per la Protezione dei Dati italiani ha ordinato il blocco di ChatGPT, un servizio di intelligenza artificiale sviluppato da OpenAI. La motivazione dietro questa decisione riguarda presunte violazioni della normativa sulla protezione dei dati personali, sottolineando come i dati utilizzati per addestrare il modello siano stati raccolti senza informare gli interessati e senza verificare la loro età. Tuttavia, l’ordine solleva dubbi da un punto di vista tecnico, legale e culturale, suggerendo che l’Autorità per la Protezione dei Dati potrebbe aver commesso un errore nel suo giudizio.

In primo luogo, il consenso dell’interessato è solo una delle basi legali per il trattamento dei dati personali. Nel caso di OpenAI, si potrebbe sostenere che l’azienda abbia un “interesse legittimo” nel trattare i dati, poiché questi sono stati resi disponibili liberamente dagli individui su profili pubblici, blog e piattaforme. Inoltre, l’ordine non tiene conto delle differenze tra ChatGPT e altri servizi, come i motori di ricerca, che offrono risultati potenzialmente inaffidabili o fonti di disinformazione.

Un altro punto critico riguarda la protezione dei minori. Sebbene l’Autorità per la Protezione dei Dati sostenga che ChatGPT espone i minori a risposte inadeguate, la responsabilità di proteggere i minori dalla tecnologia dovrebbe ricadere sui genitori o tutori legali, piuttosto che sull’ente regolatore. Inoltre, l’accesso a ChatGPT richiede la stipula di un contratto, il che significa che solo gli adulti possono utilizzare il servizio con pieno effetto legale.

Infine, l’ordine del Garante solleva preoccupazioni politiche ed economiche, poiché mette in discussione l’intero ecosistema statunitense basato su piattaforme e sull’economia dei dati, senza che l’Italia abbia un’alternativa valida per cittadini e imprese. Inoltre, rafforza il principio dell’irresponsabilità individuale e del disimpegno civico, suggerendo che il rispetto dei diritti degli utenti sia subordinato alla necessità politica.

In conclusione, il blocco di ChatGPT in Italia sembra essere un errore da parte dell’Autorità per la Protezione dei Dati. Non solo la decisione è discutibile da un punto di vista tecnico e legale, ma potrebbe anche avere ripercussioni negative sull’innovazione e sul progresso tecnologico nel Paese. È importante che le autorità di protezione dei dati lavorino insieme alle aziende tecnologiche per garantire il rispetto della normativa sulla privacy, senza ostacolare lo sviluppo e l’adozione di tecnologie all’avanguardia come ChatGPT.

Fonti: