Chrome scarica 4 GB di dati senza avvisare: colpa di Gemini Nano - come bloccarlo (aggiornato: 6 maggio 2026, ore 12:49)
- a cura di: massimo.valenti
- Commenti:
- Letture:
- Aggiornato: 06/05/2026, 12:49
- Pubblicato: 06/05/2026, 14:10
Per favore, aggiungi TurboLab.it alle eccezioni del tuo Ad Blocker. Siamo un progetto no-profit, e la pubblicità è indispensabile per pagare le spese.
In alternativa, puoi sostenerci con una donazione.
Rispetteremo ogni tua scelta, e potrai sempre utilizzare il sito senza limitazioni.
Alcuni utenti di Chrome si sono ritrovati con circa 4 GB di dati inaspettati nelle cartelle di sistema del browser: i pesi di un modello di intelligenza artificiale locale, scaricati senza alcuna notifica esplicita. La segnalazione, circolata su Reddit e ripresa da Cybernews, ha riacceso il dibattito sulla trasparenza di Google nella gestione delle funzionalità AI integrate nel suo browser. La realtà, però, è più sfumata di quanto le prime ricostruzioni lasciassero intendere.

Il file si chiama weights.bin e risiede in una directory denominata OptGuideOnDeviceModel all'interno delle cartelle di Chrome. Sono i pesi di Gemini Nano, il modello AI leggero di Google progettato per girare direttamente sul dispositivo dell'utente anziché nel cloud. Gemini Nano alimenta diverse funzionalità: assistenza alla scrittura, riassunto di testi, rilevamento di truffe e phishing, compilazione automatica e suggerimenti basati sull'intelligenza artificiale.
Quattro gigabyte per un modello definito "leggero" possono sembrare un paradosso, ma è la matematica di questi sistemi: anche le architetture più compatte richiedono miliardi di parametri addestrati, e quei parametri occupano spazio su disco. Il rovescio della medaglia è un vantaggio concreto per la riservatezza - i dati dell'utente vengono elaborati localmente, senza transitare su server remoti.
Il punto più controverso riguarda la trasparenza del processo. Diversi utenti riferiscono di non aver visto alcun avviso, nessuna casella di spunta, nessuna richiesta di autorizzazione prima che il download avvenisse. La portata effettiva del fenomeno, però, resta difficile da quantificare: non esistono prove solide che Chrome installi il modello su ogni dispositivo senza consenso. Secondo Cybernews, la situazione è «nebulosa» - il download potrebbe scattare automaticamente quando certe funzionalità AI sono attive, ma gli utenti non vengono sempre informati in modo chiaro che questo comporta lo scaricamento di diversi gigabyte.
Il problema, insomma, sembra risiedere più nell'assenza di comunicazione che in un'intenzione ostile. Non esiste un momento evidente in cui l'utente possa scegliere consapevolmente se accettare o rifiutare l'impatto sullo spazio di archiviazione - e questa opacità è di per sé problematica, specie per chi usa dispositivi con SSD di capacità limitata. Google, nel frattempo, non ha rilasciato dichiarazioni ufficiali su nessuna delle fonti disponibili, il che non aiuta certo a fare chiarezza.
A irritare ulteriormente gli utenti è il comportamento ostinatamente persistente del download. Chi ha tentato di cancellare manualmente weights.bin ha scoperto che Chrome lo riscarica al riavvio successivo, a patto che le funzionalità AI correlate siano ancora attive. Non è necessariamente sabotaggio: se il browser dipende da quel file per erogare funzioni che l'utente ha - consapevolmente o meno - abilitato, è logico che provi a ripristinarlo. Senza un meccanismo trasparente di gestione, però, l'effetto percepito è quello di un software che semplicemente ignora le scelte dell'utente.
Cancellare il file da soli non basta. Occorre disattivare le funzionalità che lo richiedono.
HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Google\Chrome, creare un valore DWORD denominato GenAILocalFoundationalModelSettings e impostarlo a 1. Riavviare Chrome.chrome://flags nella barra degli indirizzi e disattivare il flag «Enables Optimization Guide On Device». Riavviare il browser.In entrambi i casi, finché le funzionalità AI di Chrome restano attive, il modello verrà riscaricato.
Questa vicenda è un sintomo di qualcosa di più grande. L'integrazione sempre più aggressiva di funzionalità AI nei browser solleva interrogativi legittimi: una cosa è offrire strumenti utili, un'altra è scaricare gigabyte di dati sul dispositivo dell'utente senza un processo di consenso esplicito e comprensibile. L'articolo 5(3) della direttiva ePrivacy dell'Unione Europea richiede consenso preventivo, libero, specifico, informato e inequivocabile prima di memorizzare informazioni sui dispositivi degli utenti. Se il meccanismo di download di Chrome non soddisfa questi criteri in tutti i casi, il divario con le normative europee sulla riservatezza potrebbe essere significativo. Ad oggi, nessuna autorità di regolamentazione ha annunciato indagini formali sul tema.
Il paradosso è evidente: l'esecuzione locale dell'AI è, in linea di principio, la scelta più rispettosa della riservatezza rispetto all'invio di dati a server remoti. Ma quando questa scelta viene imposta senza comunicazione adeguata, il beneficio si trasforma in motivo di diffidenza. Un semplice dialogo che spieghi cosa viene scaricato, quanto pesa e perché basterebbe a trasformare una polemica in un punto a favore. Google, per ora, ha scelto il silenzio - e raramente il silenzio aiuta.
Fonti: tomsguide.com, cybernews.com, tech.yahoo.com