Mentre tutti riversano su ChatGPT le ansie sulle possibili sorti del proprio impiego, in particolare i giornalisti che testano compulsivamente e senza senso il sistema finendo per dimenticare che scrivere è l’ultimo dei problemi e che i veri giornalisti costruiscono relazioni, trovano le notizie o le analizzano in chiave utile e originale (attività precluse a qualsiasi intelligenza artificiale), c’è qualcuno che si sta preoccupando di andare a fondo. In particolare sugli aspetti della privacy, che come sempre accade con le improvvise febbri da applicazioni e tool funestati dall’hype improvviso, rimangono puntualmente ignorati. Il caso del prodigioso chatbot sviluppato da Open AI sulla base dei suoi modelli conversazionali GPT-3 non fa eccezione.
L’avvocato Ernesto Belisario, uno dei massimi esperti di privacy in Europa, si è fatto qualche domanda. Del tipo: cosa dobbiamo chiederci prima di usarlo? E quali garanzie ci dà? Non solo: come vengono trattati i dati e le informazioni eventualmente forniti dagli utenti nelle loro sessioni di (per ora) sollazzo creativo in compagnia del chatbot? I termini di servizio della piattaforma sono lunghi 3.426 parole, ci vuole un quarto d’ora per leggerli tutti – mentre l’informativa sulla privacy è di circa 2mila parole – e a quanto pare la lunghezza è inversamente proporzionale all’utilità e alle informazioni fornite all’utente.
Pochi sanno forse che per usare ChatGPT occorrerebbe in teoria avere almeno 18 anni (ma chi controlla? Nessuno) e che il servizio è fornito a proprio rischio e pericolo, “senza garanzie”. Se infatti ChatGPT dovesse direttamente o indirettamente combinare qualche pasticcio – o meglio, se gli utenti dovessero combinarlo utilizzandone i servizi – i termini specificano che la somma massima che Open AI si dice disposta a risarcire è di appena 100 dollari. Per la serie: eccovi il giochino, fate voi ma nulla a pretendere per i pasticci (plagi, frodi, exploit per il cybercrimine e via elencando) che eventualmente ci combinerete.
In linea generale i termini di servizio specificano infatti che i contenuti prodotti con ChatGPT andrebbero sempre dichiarati: l’utente dovrebbe sempre attribuirli a sé stesso spiegando però che sono stati prodotti tramite un sistema di intelligenza artificiale. D’altronde, come abbiamo visto in miriadi di articoli in cui il modello linguistico è stato messo alla prova come giornalista, tesista, cuoco, hacker, saggista, narratore, travel planner e molti altri ruoli, molto del feedback che fornisce dipende dalla chiarezza e dalla precisione dell’input che riceve.
“Spesso quando arriva la nuova tendenza social o l’app del momento tutti corrono a scaricarla e a registrarsi, accettando frettolosamente termini e condizioni d’uso perché devono provarla e devono dirlo agli amici e ai contatti sul web – racconta l’avvocato Belisario a Esquire Italia – è successo anche con ChatGPT. Tanti ci stanno dimostrando le potenzialità, pochi, pochissimi hanno letto i termini d’uso. Che ci dicono cose importanti come l’età, le garanzie (spoiler: nessuna) che il fornitore del servizio offre e quali sono le regole per la pubblicazione e condivisione dei risultati di questo chatbot. Allo stesso modo, per gli utenti europei non c’è trasparenza sulle informazioni, che devono essere pubblicate nella informativa privacy. Insomma, come accade spesso – ve le società che fanno tecnologia sono velocissime nel costruire soluzioni accattivanti e performanti ma spesso sembrano indietro con la trasparenza e la cura di queste soluzioni, che siano facili e semplici da consultare. Solo in questo modo dimostrerebbero davvero di avere a cuore la libertà e i diritti delle persone, cioè dei propri utenti. Alla vigilia dello sbarco sui nostri dispositivi e nelle nostre vite dell’intelligenza artificiale questa trasparenza e queste attenzioni devono essere ancora più elevata: hanno un impatto talmente forte che porsi questioni etiche e sulla tutela dei diritti non è solo una questione burocratica ma una priorità“.
L’analisi di Belisario spiega inoltre che ChatGPT praticamente ignora le questioni europee della privacy. Non ci sono riferimenti al Regolamento generale europeo per la protezione dei dati personali ma, come avveniva con le app dei colossi tech fino a qualche anno fa, solo scarni riferimenti alla legislazione californiana. Gli utenti europei, quei quattro che volessero farlo, sono costretti a inviare una mail per richiedere un’aggiunta in merito. In ogni caso, l’informativa sulla privacy non descrive in modo trasparente le modalità del trattamento e dunque non espone il modo in cui i diritti previsti dalle norme europee vengano implementati e garantiti. Un esempio? Dove vanno a finire le informazioni personali e aziendali che inseriamo nelle nostre richieste? Non si sa perché nessuno ce lo dice.
Ma cosa ne pensa ChatGPT dei suoi termini di servizio? Glielo abbiamo chiesto, e ha risposto che “sono un modello linguistico sviluppato da OpenAI e non ho opinioni personali. I termini di servizio di OpenAI stabiliscono le condizioni d’uso del mio utilizzo e garantiscono che io venga utilizzato in modo responsabile e legale“. Sulla privacy garantita agli utenti, invece, è più esaustivo e ammette di non poterla garantire al massimo: “OpenAI adotta misure rigorose per garantire la privacy degli utenti e la protezione dei loro dati. Ad esempio, OpenAI sottopone regolarmente a revisione le proprie pratiche di sicurezza, limita l’accesso ai dati degli utenti solo a coloro che ne hanno bisogno per svolgere le loro attività lavorative e aderisce a normative e leggi sulla privacy. Tuttavia, come modello linguistico, non posso garantire al 100% la privacy degli utenti. È importante che gli utenti utilizzino il mio servizio con cautela e rispettino le loro responsabilità per la protezione dei dati”.
Fonte: news.google.com