L’autorità irlandese per la protezione dei dati ha avviato un’indagine su Google riguardo al rispetto delle leggi sulla privacy dell’Unione Europea nell’uso dei dati personali per l’addestramento dell’intelligenza artificiale generativa.
La Data Protection Commission (DPC) irlandese, che supervisiona la conformità di Google al Regolamento Generale sulla Protezione dei Dati (GDPR) dell’UE, sta esaminando se l’azienda abbia condotto una valutazione d’impatto sulla protezione dei dati (DPIA) prima di utilizzare le informazioni degli utenti europei per addestrare i suoi modelli di AI.
L’indagine si concentra in particolare sullo sviluppo di PaLM 2, il modello linguistico alla base della famiglia di strumenti di intelligenza artificiale generativa di Google, ora raccolti sotto il nome di Gemini AI (precedentemente Bard). La DPC sottolinea l’importanza di una DPIA per garantire che i diritti e le libertà fondamentali degli individui siano adeguatamente considerati e protetti quando il trattamento dei dati personali può comportare un rischio elevato.
Questa indagine fa parte di un più ampio sforzo delle autorità di regolamentazione dell’UE/SEE per regolare il trattamento dei dati personali dei cittadini europei nello sviluppo di modelli e sistemi di IA.
Le sanzioni per eventuali violazioni del GDPR possono arrivare fino al 4% del fatturato globale annuo di Alphabet, la società madre di Google.
Google ha dichiarato di prendere seriamente i propri obblighi ai sensi del GDPR e di voler collaborare costruttivamente con la DPC per rispondere alle loro domande. Questa indagine si aggiunge a una serie di azioni regolatorie simili nel settore dell’IA generativa, che hanno coinvolto aziende come OpenAI, Meta e X (precedentemente Twitter).