04/22/2025 | News release | Distributed by Public on 04/22/2025 04:29
Nelle scorse settimane su Whatsapp di sempre più utenti è comparsa un'icona circolare sui toni del blu e del viola. È l'icona di Meta AI, l'intelligenza artificiale del colosso di Mark Zuckerberg (di cui fanno parte anche Facebook e Instagram) che permette di interagire come un qualsiasi altro chatbot (tipo ChatGPT, Gemini, Claude, ecc.). Se sei curioso, abbiamo approfondito il funzionamento di Meta AI e puoi leggere qui come funziona.
Ma come si allena l'intelligenza artificiale di Meta AI?
Nei giorni scorsi Meta ha annunciato che utilizzerà nuovamente i contenuti pubblici degli utenti europei maggiorenni di Facebook e Instagram per addestrare i suoi modelli di intelligenza artificiale. Post, foto, didascalie e commenti pubblici - anche di profili privati se inseriti in gruppi aperti - potranno rientrare nei dati impiegati per sviluppare strumenti come Meta AI, attivi anche su Messenger (la chat di Facebook) e Instagram. La novità, che ha suscitato preoccupazione tra utenti e autorità per la privacy, riapre il dibattito sull'uso dei dati online da parte delle big tech. Ma è possibile opporsi? La risposta è sì, anche se l'onere ricade ancora una volta sull'utente.
L'addestramento dell'AI con i dati pubblici degli utenti
L'annuncio di Meta è arrivato a metà aprile 2025, con la riattivazione del processo di addestramento dei suoi modelli di AI generativa attraverso i contenuti condivisi pubblicamente dagli utenti europei maggiorenni. Dopo uno stop nel 2023, deciso in seguito alle pressioni dell'Autorità irlandese per la protezione dei dati, la società ha ripreso il progetto in seguito a un parere del Comitato europeo per la protezione dei dati, che ha sottolineato la necessità di garantire agli utenti un diritto effettivo di opposizione.
Meta promette che i contenuti privati, come i messaggi diretti su Messenger e WhatsApp, non saranno utilizzati, a meno che non vengano esplicitamente condivisi con l'AI. Tuttavia, i dati pubblici (visibili a tutti in base alle impostazioni dell'account) sono considerati utilizzabili per "migliorare l'esperienza" e rendere l'AI "più rilevante per gli utenti europei".
Come esercitare il diritto di opposizione
Meta ha messo a disposizione un modulo di opposizione accessibile online, tramite il quale ogni utente può impedire che le proprie informazioni pubbliche vengano utilizzate per addestrare l'AI. La procedura prevede:
Dopo l'invio, Meta confermerà via e-mail che non utilizzerà i dati pubblici dell'utente per addestrare i suoi modelli di intelligenza artificiale in futuro. È importante sapere che la richiesta è valida solo per l'account selezionato o per quelli collegati tramite il Centro gestione account. In caso contrario, sarà necessario inviare un modulo separato per ciascun account. Anche ChatGPT permette di opporsi all'utilizzo delle conversazioni per l'addestramento del chatbot: qui ti spieghiamo come fare.
I limiti dell'opposizione
Anche in caso di opposizione, Meta si riserva comunque la possibilità di elaborare informazioni personali indirettamente. È il caso, ad esempio, di:
Insomma, per quanto si possa esercitare il proprio diritto di opposizione, il controllo sui propri dati resta parziale se questi sono visibili pubblicamente o condivisi da terzi.
Il dibattito europeo su privacy e AI
La vicenda Meta riaccende una questione centrale nel dibattito europeo: serve il consenso esplicito per utilizzare i dati pubblici degli utenti? Oppure è sufficiente fare riferimento al cosiddetto "legittimo interesse", che permette di trattare i dati personali senza consenso se ciò è giustificato da finalità prevalenti?
Il parere del Comitato europeo per la protezione dei dati ha lasciato aperti molti interrogativi, rimettendo la responsabilità alla Dpc irlandese, che vigila su Meta in Europa. Intanto il presidente degli Affari globali di Meta, Nick Clegg, già a dicembre scorso aveva criticato la lentezza del sistema europeo, affermando che "un agricoltore in India ha accesso a modelli AI più aggiornati di un uomo d'affari a Milano", a causa dell'eccessiva frammentazione normativa nel Vecchio Continente.
Il tema è ancora più attuale se si considera che anche OpenAI (proprietaria di ChatGPT) e Google (Gemini) sono oggetto di indagini da parte delle autorità per pratiche simili. La questione riguarda infatti tutti i colossi che sfruttano tecniche di web scraping per raccogliere contenuti da Internet e utilizzarli nell'addestramento dell'intelligenza artificiale.