Le innovazioni di determinate IA rappresentano una sfida all’art. 15 della Costituzione Italiana: la segretezza delle comunicazioni personali. Difatti Gemini, l’Intelligenza Artificiale di Google, è integrata nel programma di posta elettronica Gmail e, se l’utente lo consente, permette all’algoritmo di operare direttamente sui contenuti delle email, per esempio riassumendole o proponendo risposte “ragionate” in meno tempo e forse anche meglio di come lo farebbe l’utente. Ciò rende di fatto l’intero processo utile e conferisce all’algoritmo di Gemini un prestigio di innovazione, ma anche di effetto Wow! Ma siamo sicuri che sia tutto così favoloso?
L’annuncio – che si presenta roboante – è di quelli che meritano un approfondimento: nuove tecnologie, capaci di integrare e “ragionare” sui dati personali, dalle email alle fotografie, fino alla cronologia di ricerca, impongono una riflessione che va oltre l’innovazione tecnica.
Per dirla tutta, non si discute il diritto a pubblicizzare i propri prodotti più innovativi, e non ci si illude nemmeno che sia o debba essere “tutto gratis”: le favole sono belle proprio perché sono una sublimazione della nostra spinta idealistica a credere in un mondo giusto, ma la realtà, molto spesso, deve fare i conti con la miseria della condizione umana… e capita di dover ammettere che dietro a grandi idealismi tecnologici di avanguardia, ci siano insidie pericolose che minano alla radice le conquiste di civiltà che ci siano duramente guadagnati.
L’intelligenza artificiale personale, è una strada sicura? Quali guardrail servono per non andare fuori strada?

Nel dibattito sull’intelligenza artificiale, parlando della cosiddetta AI safety, si riprende un’idea simile a quella della sicurezza stradale: si avverte la necessità di introdurre dei guardrail, cioè limiti e protezioni che non servono a fermare il traffico, ma a mantenere la strada sicura per chi la percorre.
Vale forse la pena accennare al fatto che benché l’etica sia un insieme di teorie su come fare le scelte più eque e giuste (e su questo si sia più o meno tutti d’accordo), l’applicazione, ossia il comportamento etico, più volgarmente la morale di ognuno, dipende invece dal livello di responsabilità dei singoli individui (o la loro summa se si parla di gruppi), tanto variabile da trasformare le buone intenzioni postulate nella teoria (Etica), in malefatte dalle dimensioni epiche nella pratica.
Se queste disquisizioni lasciano un po’ il sapore di trattati sul sesso degli angeli, c’è però un aspetto molto più concreto che tocca da vicino i nostri diritti. In Italia la segretezza delle comunicazioni non è un dettaglio teorico, tecnico o amministrativo: è un principio costituzionale.
I contratti dell’intelligenza artificiale con il Pentagono e la Difesa statunitense sono già una realtà (opaca)
Ci sono modelli di Intelligenze Artificiali, e applicazioni che usano Intelligenza Artificiale, che puntano sulla “sicurezza”, per promuoversi, avendo riconosciuto che la “sicurezza”, la “privacy”, ecc., possono costituire un asset del brand persino anche solo a livello di promozionale (di percezione del consumatore). Si veda su tutti il caso di Anthropic, che già vende i propri servigi al Ministero della Guerra degli USA (e le agenzie dell’Amministrazione a Stelle e Strisce), e che ora cerca di rifarsi una verginità sulla “sicurezza” o su manifesti etici.
Il dibattito sull’etica dell’Intelligenza Artificiale – a tratti surreale – ha messo in discussione l’intero equilibrio competitivo tra le varie piattaforme. Mentre OpenAI ha da poco annunciato di aver stipulato una partnership con il Pentagono, nello specifico con il Department of Defense, Anthropic – che ha in essere già dei contratti con la Pubblica Amministrazione USA (non da ieri) – ha dichiarato di non poter accettare, “in buona coscienza”, condizioni contrattuali che avrebbero portato allo sviluppo di sistemi d’arma autonomi o a un impiego massivo dell’intelligenza artificiale nella sorveglianza.
La percezioni degli utenti: dov’è il paradosso?
Se il comportamento dei consumatori fosse razionale si vedrebbero disinstallazioni in massa sia da Anthropic che da ChatGPT, invece c’è una fuga solo da ChatGPT, con un incremento delle disinstallazioni del 295% negli ultimi giorni. Il 2 marzo Stefano Quintarelli dalle frequenze di Radio Radicale, intervistato da Lanfranco Palazzolo, ha sottolineato che la legislazione USA già vieta ciò che Anthropic considera inaccettabile.
Nel 1908 Filippo Turati ci metteva in guardia
[…] La casa dell’Amministrazione dovrebb’essere di vetro
Turati usa la metafora nel dibattito parlamentare sul segreto d’ufficio (seduta del 17 giugno 1908). Il punto polemico è che l’Amministrazione invoca spesso il “decoro” come scusa per non dire nulla e sottrarsi al controllo pubblico: Turati ribalta l’argomento e chiede di definire e limitare cosa sia davvero “segreto”, perché altrimenti il segreto diventa un ombrello infinito.
Nello stesso passaggio arriva la frase-chiave (in forma di regola): la trasparenza è la norma, mentre il segreto può essere ammesso solo quando un superiore interesse pubblico imponga un segreto temporaneo. Cosa è scritto e cosa non è scritto nei contratti che queste corporation stipulano? L’opacità rende la faccenda molto difficile da essere analizzata con serenità, e lasciano più di qualche dubbio sulla trasparenza invocata da Turati a inizio Novecento per quanto riguarda le istituzioni (sì, estendiamo tale principio anche al governo degli Stati Uniti perché in qualche modo ci riguarda)!
Ora, dopo un tuffo nella nostra Storia d’Italia, torniamo alla “Personal Intelligence” americana di Gemini e al tema della segretezza delle informazioni tematizzato nella Costituzione Italiana del 1948.
Gemini, Personal Intelligence
Secondo Gemini “I migliori assistenti non si limitano a conoscere il mondo: conoscono voi e vi aiutano a viverlo al meglio”. “Oggi – continuano nella loro promozione – “rispondiamo a una delle vostre richieste più frequenti: da questo momento è possibile personalizzare Gemini e connettere le vostre app Google con un semplice tocco. Il lancio della versione Beta negli Stati Uniti segna un passo fondamentale nel nostro percorso per rendere Gemini sempre più personale, proattivo e potente”.
I testi promozionali di Google ci indicano che “La Personal Intelligence connette in modo sicuro le informazioni da app come Gmail e Google Foto per rendere Gemini straordinariamente utile”.
Ci dicono anche che attivando tale funzione saremo noi a decidere quali app collegare, e ognuna di esse è pensata per elevare la qualità della nostra esperienza d’uso. “Ad oggi – rivendicano – nessun altro strumento è in grado di far dialogare Gmail, Foto, YouTube e la Ricerca Google in modo così immediato”.
E chiosano per rassicurarci: “Abbiamo curato ogni dettaglio per rendere la configurazione intuitiva e, soprattutto, sicura”. Parola di Gemini, ma cosa dice la Costituzione?
Gemini vs Costituzione: i Diritti Costituzionali che derivano dalla segretezza della corrispondenza
L’articolo 15 della Costituzione afferma:
La libertà e la segretezza della corrispondenza e di ogni altra forma di comunicazione sono inviolabili
Le eventuali limitazioni possono avvenire solo per atto motivato dell’autorità giudiziaria e con le garanzie stabilite dalla legge. Non è una formula retorica: è una clausola di civiltà giuridica che tutela la dignità della persona e la sua sfera privata. Quando una tecnologia promette di “connettere in modo sicuro” e-mail, foto e altri contenuti personali per offrire risposte personalizzate, la questione non è se sia utile – lo è, e molto – ma a quali condizioni resti compatibile con il dettato costituzionale.
I quattro pilastri su cui si regge la contesa
Primo: il consenso libero e informato – Se il collegamento delle app è disattivato di default – come appare nel Blog di Google – e l’utente sceglie consapevolmente di attivarlo, siamo nell’ambito dell’autodeterminazione informativa. L’articolo 15 tutela la segretezza da intrusioni esterne e coattive; non impedisce al cittadino di disporre dei propri dati, purché lo faccia in modo realmente libero e reversibile.
Secondo: la finalità limitata – Il trattamento dei dati deve essere strettamente connesso alla richiesta specifica dell’utente. Se l’accesso ai contenuti personali avviene solo per rispondere a una domanda puntuale e non per un uso generalizzato o indeterminato, il rischio di violazione si riduce sensibilmente.
Terzo: la minimizzazione e la non riutilizzabilità – È essenziale che i contenuti privati non vengano utilizzati per addestrare modelli o generare profili permanenti senza adeguata anonimizzazione. La differenza tra “consultare per rispondere” e “riutilizzare per apprendere” è decisiva dal punto di vista costituzionale.
Quarto: la trasparenza verificabile – L’utente deve poter sapere quali fonti sono state utilizzate per generare una risposta, e deve poter disattivare la funzione in ogni momento. La possibilità di controllo è il vero antidoto all’opacità algoritmica.
L’algoritmo di Gemini è “Constitutional Friendly” – compatibile con la Costituzione – se l’accesso alle comunicazioni ha un perimetro ben definito
In questo quadro, la tecnologia di Gemini non è di per sé incompatibile con la Costituzione. Lo diventa solo se si trasforma in uno strumento di accesso non proporzionato, non consensuale o non trasparente ai contenuti privati. La sfida lanciata da Gemini è culturale prima ancora che tecnica: progettare sistemi in cui la personalizzazione non significhi sorveglianza, e l’intelligenza artificiale non eroda lo spazio di libertà individuale che la Costituzione protegge come “inviolabile”.
Basta un caso-limite (per es. Epstein) per capire la regola: quando l’accesso alle comunicazioni diventa facile, l’eccezione diventa sistema—e gli scandali smettono di essere eventi, diventano un genere.
Leggi anche:
Per rimanere aggiornato sulle ultime opinioni, seguici su: il nostro sito, Instagram, Facebook e LinkedIn
