
Chi utilizza Ollama per eseguire modelli linguistici in locale - magari per evitare i costi delle API cloud o per tenere i propri dati lontani dai server di OpenAI e Anthropic - farebbe bene a controllare con urgenza come è configurato il proprio sistema. Una vulnerabilità critica nel popolare server di inferenza per LLM, battezzata "Bleeding Llama" dai ricercatori che l'hanno scoperta, consente a un attaccante remoto e non autenticato di leggere porzioni di memoria heap dal server, con il rischio concreto di esporre chiavi API, prompt degli utenti, variabili d'ambiente e configurazioni interne. Un exploit Proof-of-Concept è già pubblico, la patch ufficiale non è ancora disponibile, e si stima che circa 300.000 deployment nel mondo siano potenzialmente esposti. [continua..]
---
Cosa ne pensi? Lascia il tuo commento qui sotto.
