(Image credit: Shutterstock)
Nelle scorse settimane Sam Altman è intervenuto sul tema legato alla privacy di ChatGPT, lanciando un avvertimento secco che smonta l’illusione più diffusa tra gli utenti dei due mondi: le conversazioni con un’Intelligenza Artificiale non godono di alcun privilegio legale. Difatti, contrariamente a quanto si potrebbe pensare il CEO di OpenAI ha spiegato che:
Ciò che dite a ChatGPT può essere usato contro di voi in tribunale.
Non sono confidenze protette come quelle tra fedele e sacerdote in un confessionale – bellissime le immagini di migliaia di giovani convenuti a Roma in occasione del Giubileo dei Giovani, con il desiderio di confessarsi -, o la seduta di auditing che avviene tra un parrocchiano e un ministro in una Chiesa di Scientology. Con l’Intelligenza Artificiale, continuiamo a chiamarla così per comodità, non valgono le stesse garanzie del rapporto avvocato-cliente, in cui ogni parola resta blindata dal segreto professionale; né quelle della relazione medico-paziente, protette da norme deontologiche e leggi specifiche.
ChatGPT è il risultato di algoritmi, banalmente è una macchina, la privacy è l’ultimo dei suoi problemi. Non è un prete, non è un medico, non è un legale. È uno strumento potente, ma privo di qualunque “privilegio” che trasformi ciò che dite in materiale giuridicamente intoccabile. Se la giustizia bussa, OpenAI – la società che ha nel proprio portafogli questo aggeggio – non può opporsi.
Negli Stati Uniti, il concetto di privacy ha radici fragili e frammentarie. Non esiste una “Costituzione della riservatezza”: il Quarto Emendamento tutela dall’intrusione governativa senza giusta causa, ma non riconosce la privacy come diritto fondamentale in senso ampio.
La celebre definizione di Right to privacy come “il diritto di essere lasciati soli” — coniata da Samuel Warren e Louis Brandeis nel 1890 — è rimasta per lungo tempo un’aspirazione più che una garanzia. Negli anni ’70, con il Privacy Act del 1974, si è introdotta una tutela minima sui dati personali detenuti dalle agenzie federali, ma il modello americano rimane settoriale: protezioni per la salute (HIPAA), per i dati finanziari (GLBA), per la privacy dei minori online (COPPA), e così via.
Il risultato è un mosaico normativo in cui la protezione dipende dal contesto, non da un principio universale. Per questo, se un tribunale ordina a OpenAI di consegnare le vostre chat, il sistema non ha anticorpi culturali o giuridici per opporsi.
In Europa, la storia ha preso un’altra piega. La Convenzione europea dei diritti dell’uomo (art. 8, 1950) riconosce il diritto al rispetto della vita privata e familiare. Negli anni ’90, la direttiva 95/46/CE ha tracciato il primo quadro organico di protezione dei dati personali, culminato nel 2018 con il GDPR.
Il GDPR non è un semplice strumento tecnico: è l’espressione di un valore politico e culturale, legato all’idea che la dignità umana richieda il controllo sui propri dati. Tuttavia, anche qui vale una nota amara: la protezione riguarda la raccolta, il trattamento e la conservazione, ma non trasforma un’IA in un interlocutore protetto da “segreto professionale”. In altre parole, anche sotto il GDPR, una corte può ordinare la divulgazione di una chat.
Nel panorama europeo, l’Italia si distingue per la presenza di un’autorità indipendente dedicata interamente alla protezione dei dati personali: il Garante per la protezione dei dati personali. Nato nel 1997 e rafforzato con l’entrata in vigore del GDPR, il Garante è un collegio di quattro membri eletti dal Parlamento con il compito di vigilare sull’applicazione della normativa, intervenire in caso di violazioni, promuovere la cultura della privacy e dialogare con le istituzioni nazionali ed europee.
Non si tratta di un “commissario straordinario” chiamato per un’emergenza temporanea, ma di un presidio permanente della legalità digitale, in grado di agire sia d’ufficio sia su segnalazione dei cittadini. La sua esistenza ricorda che, almeno sulla carta, la protezione della sfera privata è considerata un diritto strutturale dell’ordinamento italiano, non un lusso da concedere a discrezione del momento.
Nel caso di ChatGPT, il Garante ha compiuto la sua mossa più decisa: nel marzo 2023 ha imposto un divieto temporaneo all’uso del servizio sul territorio italiano, a seguito di una fuga di dati che ha coinvolto conversazioni e informazioni di pagamento. A fine anno, la sanzione si è materializzata in una multa record da 15 milioni di euro per violazioni del GDPR: mancata base giuridica per il trattamento, carenze nella trasparenza, assenza di strumenti di verifica dell’età, e omissione nella notifica della violazione stessa. In più, l’autorità ha imposto a OpenAI una campagna informativa istituzionale di sei mesi su media nazionali, per sensibilizzare utenti e non utenti sui rischi della profilazione e su come esercitare i diritti previsti dal GDPR. L’Italia, quindi – una volta tanto – non è spettatrice: ha dato un segnale forte di responsabilità regolatoria.
Dal 2015, il Consiglio per i Diritti Umani delle Nazioni Unite nomina uno Special Rapporteur on the right to privacy, incaricato di monitorare e promuovere il rispetto della riservatezza a livello globale.
Per inciso, mi è capitato di interagire con questo ufficio lo scorso novembre, a Ginevra, presso la sede ONU – l’incontro era finalizzato a promuovere un nuovo paradigma, una scala valoriale, da proporre negli ordinamenti giuridici, per quanto concerne la ricerca di persone scomparse, prima la protezione della vita, poi la tutela della privacy.
Attualmente il mandato include sfide legate alla sorveglianza di massa, al riconoscimento facciale, e — progressivamente — all’uso dell’intelligenza artificiale.
Lo Special Rapporteur ha più volte ribadito che la privacy non è un lusso, ma una condizione essenziale per l’esercizio di tutte le libertà. Tuttavia, le raccomandazioni ONU non hanno forza vincolante: spetta agli Stati recepirle, e qui torna la frattura culturale.
Stati Uniti e Uniore Europea hanno due idee molto diverse di “privacy”:
In entrambi i sistemi, ChatGPT resta un testimone potenziale, non un confessore.
E se il “Grande Orecchio” digitale ascolta, la tentazione di usarne la memoria in tribunale è forte, ovunque.
Credo che Altman abbia le sue ragioni per mettere il dito nella piaga: finché non esisterà un regime giuridico che estenda il privilegio comunicativo alle interazioni con l’IA — almeno in certi contesti —, la prudenza con ChatGPT in tema di privacy è l’unica strategia sensata. La differenza tra Stati Uniti ed Europa sta nei valori proclamati, non nelle conseguenze pratiche.
Per l’americano medio, l’idea che un giudice possa leggere le tue chat è spiacevole, ma è anche una normale eventualità. Per l’europeo, è una violazione che si giustifica “solo” in casi eccezionali.
Il risultato, alla fine, è identico: la piazza pubblica inizia dove pensavi ci fosse una porta chiusa.
Per rimanere aggiornato sulle ultime opinioni, seguici su: il nostro sito, Instagram, Facebook e LinkedIn
Un laboratorio di educazione musicale dedicato ai valori della tradizione italiana. Nel cuore del quartiere…
In questi mesi la figlia minore di Vittorio Sgarbi, Evelina Sgarbi, ospite in vari programmi…
Pamela Genini, ventinove anni, è stata brutalmente uccisa da Gianluca Soncin, cinquantadue anni, ossia l’uomo…
Superare la povertà non è un gesto di carità. È un atto di giustizia. È…
Che si tratti di una pizza con gli amici, di un bicchiere di vino dopo…
Il 16 ottobre 1923, in un modesto ufficio di Los Angeles, due fratelli tracciano senza…