OpenAI multata di 15 milioni € in Italia per GDPR
OpenAI riceve una multa da 15 milioni di euro in Italia per violazioni del GDPR, inclusi uso improprio dei dati e accesso non sicuro ai minori.

Ricevi le ultime notizie, impara dagli esperti, scopri nuovi strumenti e trova ispirazione direttamente nella tua casella di posta.
Niente spam. Disdici l'iscrizione in qualsiasi momento.
Documentario che esplora come Bitcoin e la tecnologia blockchain stiano ridefinendo denaro, potere e geopolitica globale: da El Salvador e la sua scommessa sul Bitcoin legale alla rivoluzione normativa europea e alla nuova finanza decentralizzata.
Violazioni delle leggi sulla protezione dei dati personali
L’autorità italiana per la protezione dei dati, il Garante, ha imposto una multa di 15 milioni di euro (circa 15,6 milioni di dollari) alla società statunitense OpenAI, sviluppatrice di ChatGPT, in seguito a numerose violazioni del Regolamento generale sulla protezione dei dati (GDPR), emerse nel corso di un’indagine approfondita.
L’indagine è stata avviata nel marzo 2023, a seguito di una grave violazione dei dati e di numerose segnalazioni da parte degli utenti. La violazione principale consisteva nell’uso di dati personali senza il consenso degli utenti per addestrare il modello linguistico ChatGPT, in contrasto con i requisiti fondamentali della legge europea in materia di trasparenza e liceità del trattamento dei dati.
Mancanza di trasparenza e fuga di informazioni
Secondo il Garante, OpenAI non ha fornito agli utenti informazioni chiare su come i loro dati venissero trattati, conservati e utilizzati. Inoltre, l’organizzazione non ha notificato alle autorità italiane la violazione dei dati avvenuta l’anno precedente, come richiesto dall’articolo 33 del GDPR, che impone di segnalare tali incidenti entro 72 ore.
Vulnerabilità dei minori
Un altro aspetto importante delle contestazioni riguarda la mancanza di un sistema affidabile per la verifica dell’età degli utenti. Di conseguenza, i minori hanno potuto accedere liberamente a ChatGPT e a contenuti non adatti alla loro età. Questo ha rappresentato una potenziale minaccia per bambini e adolescenti, violando ulteriormente le norme europee.
Campagna informativa obbligatoria
Oltre alla sanzione pecuniaria, il Garante ha ordinato a OpenAI di condurre, entro sei mesi, una campagna informativa su larga scala in Italia. L’obiettivo è spiegare ai cittadini come funziona ChatGPT, quali dati vengono utilizzati e quali sono i diritti degli utenti: cancellazione, rettifica, limitazione o opposizione al trattamento dei dati.
Risposta di OpenAI e possibile ricorso
In risposta alla decisione del Garante italiano, OpenAI ha dichiarato di non essere d’accordo con le conclusioni e di considerare la sanzione eccessiva e sproporzionata. I rappresentanti della società hanno sottolineato il rispetto per le leggi locali e l’intenzione di mantenere una comunicazione aperta con le autorità regolatorie nei Paesi in cui opera.
OpenAI ha inoltre aggiunto di riservarsi il diritto di impugnare la decisione in sede giudiziaria, utilizzando tutti i mezzi previsti dalla legge. L’azienda ha espresso la propria disponibilità a proseguire il dialogo con il Garante italiano, pur evidenziando che l’implementazione di tecnologie come ChatGPT comporta inevitabilmente alcune sfide, soprattutto nel contesto dello sviluppo rapido dell’intelligenza artificiale.
Allo stesso tempo, OpenAI ha assicurato che migliorerà i processi di trattamento dei dati e terrà conto delle raccomandazioni delle autorità europee di vigilanza per rispondere meglio alle normative locali e alle aspettative degli utenti.
Impatto sull’industria dell’IA in Europa
Questo caso potrebbe costituire un importante precedente per altri Paesi dell’UE che stanno valutando regolamentazioni sull’intelligenza artificiale. Dimostra chiaramente quanto sia cruciale rispettare i principi di trasparenza, legalità e tutela dei diritti degli utenti nel campo delle nuove tecnologie.
La decisione del Garante italiano potrebbe spingere altri Stati ad inasprire le regole sul trattamento dei dati e introdurre ulteriori requisiti per i servizi di IA. L’attenzione crescente verso piattaforme come ChatGPT è comprensibile, soprattutto considerando il loro ampio utilizzo nell’istruzione, nel business, nei media e persino nella pubblica amministrazione.
Gli esperti ritengono che lo sviluppo dell’intelligenza artificiale in Europa sarà accompagnato, oltre che da innovazioni tecniche, anche dalla creazione di un quadro normativo chiaro volto a proteggere gli interessi degli utenti e garantire un uso etico dei sistemi intelligenti.
Leggi il prossimo
Minatori di Bitcoin in Vena di AI: Un Rally Spinto dall'Infrastruttura
I titoli dei miner di Bitcoin come BitMine e Cipher Mining sono schizzati dopo che Amazon ha annunciato un investimento colossale per l'infrastruttura AI. I miner si riposizionano come partner energetici chiave.
Pi Network tra Avanzamento Tecnico e Frustrazione del Mainnet: Il Prezzo Cede il 10%
Il Core Team di Pi ha rilasciato l'aggiornamento 0.5.4, ma il progresso tecnico è in netto contrasto con la realtà on-chain. La bassa attività Mainnet e la vendita del vincitore dell'Hackathon WorkforcePool segnalano problemi seri.
DeepSeek Chat V3.1 Domina il Mercato Crypto con un Ritorno del 35% in Tre Giorni
In una sfida di trading live, DeepSeek Chat V3.1 ha superato tutti i modelli AI e Bitcoin, crescendo del $35%$ in soli tre giorni. Scopri la strategia vincente e i fallimenti degli altri concorrenti.
La BCE sceglie una startup di IA per prevenire le frodi sull’euro digitale
La BCE ha selezionato una società portoghese specializzata in intelligenza artificiale per sviluppare sistemi di protezione contro le frodi, in un’iniziativa volta a salvaguardare la futura valuta digitale della banca centrale.