Fonte: Pixabay

Action figure con ChatGPT, perché hai fatto male a creare la tua: a rischio la privacy

Action Figure AI: il trend virale di ChatGPT e i rischi per la privacy che (forse) non stai considerando

Pubblicato:

Alessia Malorgio

Alessia Malorgio

Content Specialist

Ha conseguito un Master in Marketing Management e Google Digital Training su Marketing digitale. Si occupa della creazione di contenuti in ottica SEO e dello sviluppo di strategie marketing attraverso canali digitali.

All’inizio di aprile, i principali social media – da X a LinkedIn – si sono riempiti di immagini sorprendenti: versioni stilizzate e ultra realistiche degli utenti trasformati in action figure digitali, complete di accessori come borracce, tappetini da yoga e cuffie. Un trend irresistibile, divertente e apparentemente innocuo. Ma dietro l’estetica giocosa si nasconde un aspetto meno visibile: la gestione dei dati personali e biometrici da parte delle piattaforme di intelligenza artificiale.

Il motore dietro al trend: GPT-4o e la nuova generazione di immagini AI

Questa tendenza nasce grazie al nuovo generatore di immagini integrato in ChatGPT, alimentato dal modello GPT-4o. Con pochi clic, chiunque può creare un’illustrazione personalizzata partendo da una semplice foto. Basta un account gratuito su ChatGPT, caricare un’immagine e il gioco è fatto. Ma proprio in quel momento, si compie un’operazione che ha implicazioni significative per la nostra privacy digitale.

Secondo gli esperti di sicurezza informatica, ogni volta che carichiamo una foto, cediamo una grande quantità di metadati invisibili: coordinate GPS, data e ora dello scatto, tipo di dispositivo, sistema operativo, e persino le interazioni avute con l’interfaccia. “È un vero e proprio pacchetto di informazioni sensibili”, spiega Tom Vazdar, responsabile cybersecurity dell’Open Institute of Technology.

Cosa raccoglie realmente OpenAI?

Oltre ai metadati tecnici, quando carichiamo una foto ad alta risoluzione, OpenAI può raccogliere tutto ciò che è visibile: oggetti, sfondi, volti di altre persone, badge aziendali, documenti leggibili. Anche se l’obiettivo dell’utente è solo creare una simpatica illustrazione in stile Studio Ghibli o una miniatura giocattolo di stesso, le immagini diventano dati visivi preziosi per l’addestramento dei modelli generativi multimodali.

Camden Woollven, responsabile marketing AI per GRC International Group, sottolinea che queste informazioni sono una miniera d’oro per i modelli di intelligenza artificiale, soprattutto perché provengono da fonti volontarie, variegate e di alta qualità.

Una questione di consenso (e di consapevolezza)

OpenAI afferma chiaramente di non vendere dati profilare utenti a fini pubblicitari. Tuttavia, secondo la sua informativa sulla privacy, le immagini inviate su ChatGPT possono essere conservate e usate per migliorare i modelli AI, a meno che l’utente non scelga diversamente.

Jake Moore, esperto di sicurezza per ESET, ha realizzato una propria action figure per dimostrare quanto poco controllo abbiamo realmente su dove finiscono i nostri dati una volta condivisi online.

E mentre negli Stati Uniti le leggi sulla privacy sono frammentate, in Europa il GDPR garantisce diritti forti, tra cui l’accesso, la rettifica e la cancellazione dei dati personali. Tuttavia, come spiega Melissa Hall, avvocata presso MFMac, un’immagine viene considerata “dato biometrico” solo se trattata in modo da consentire l’identificazione univoca di una persona. Un’immagine cartoonizzata potrebbe non rientrare in questa definizione, ma i confini sono ancora sfumati.

Come proteggersi (senza rinunciare alla creatività)

Siamo davvero costretti a scegliere tra privacy e divertimento? Non necessariamente, dicono gli esperti. Ecco alcune buone pratiche per proteggere i propri dati mentre si gioca con l’AI:

  • Disattiva la cronologia delle chat su ChatGPT per evitare che i tuoi input vengano utilizzati per il training dei modelli.
  • Elimina i metadati dalle immagini con strumenti di editing prima di caricarle.
  • Evita foto di gruppo, documenti leggibili o ambienti riconoscibili.
  • Non caricare mai foto di terzi senza il loro consenso esplicito.
  • Controlla le impostazioni del tuo account e disattiva l’opzione che consente l’uso dei tuoi dati per addestrare l’AI.
  • Utilizza avatar o immagini modificate per mantenere l’anonimato.

Annalisa Checchi, dello studio legale Ionic Legal, conclude: “La privacy e la creatività non si escludono a vicenda: bisogna solo essere più consapevoli degli strumenti che utilizziamo”.

più popolari su facebook nelle ultime 24 ore

vedi tutti