L’ennesima intelligenza artificiale che si presenta come rivoluzionaria, ma che in pochi giorni si dimostra un colabrodo di sicurezza. Il Garante della Privacy italiano ha deciso di bloccare DeepSeek, il sistema cinese di IA, a tutela dei dati dei cittadini. E il bello? Lo stop arriva dopo che un gruppo di ricercatori ha scoperto una falla imbarazzante, che ha esposto milioni di informazioni sensibili. Ma tranquilli, l’hanno riparata. O almeno così dicono.
Un sistema “avanzato” con un buco grande quanto una casa
DeepSeek si presentava come un’IA relazionale capace di comprendere le conversazioni umane. Tradotto: una chatbot con pretese. In pochi giorni ha attirato milioni di utenti, ma quello che non diceva è che nel frattempo i loro dati venivano parcheggiati in un database esposto senza autenticazione. Nome del database? ClickHouse, ovvero la porta aperta per chiunque volesse curiosare tra cronologie di chat, accessi e credenziali. Per i cybercriminali sarebbe stato un banchetto. E mentre qualcuno si frega le mani, i ricercatori di sicurezza hanno lanciato l’allarme. Troppo tardi?
Il Garante interviene, ma il danno è fatto
Dopo la sparizione dell’app dai negozi digitali di Apple e Google, il Garante della Privacy ha deciso di bloccare l’accesso a DeepSeek in Italia. Non proprio un fulmine a ciel sereno: la società aveva risposto alle richieste di chiarimenti con un vago “non operiamo in Italia”, ritenuto totalmente insufficiente. Anche perché, nel frattempo, il software macinava utenti italiani e probabilmente archiviava i loro dati chissà dove.
DeepSeek: flop tecnologico e pericolo per i dati
Come se non bastasse il rischio privacy, arriva il colpo di grazia: DeepSeek non solo perde pezzi, ma si dimostra anche poco affidabile. La piattaforma di monitoraggio NewsGuard ha messo alla prova l’IA cinese e il risultato è disastroso: l’83% delle risposte fornite era inaccurato. In pratica, più che un’assistente intelligente, sembra un generatore automatico di sciocchezze.
OpenAI e la stoccata finale: “Sopravvalutata”
Sam Altman, il padre di ChatGPT, non si è lasciato sfuggire l’occasione di sminuire il concorrente cinese: “Hanno fatto un paio di cose buone, ma è sopravvalutata”. Tradotto: un’IA vecchia, con problemi di sicurezza e scarsa affidabilità. E mentre DeepSeek inciampa, la corsa all’intelligenza artificiale continua, con aziende pronte a lanciare nuovi sistemi sempre più potenti (e speriamo meno disastrosi).
Il futuro? Speriamo con meno falle e più controlli
La lezione è chiara: l’intelligenza artificiale senza regole è un problema serio. Aziende lanciano modelli sempre più avanzati, ma troppo spesso si dimenticano di proteggere i dati degli utenti. Il Garante ha fatto il suo dovere, ma la vera domanda è: quante altre DeepSeek ci sono in giro pronte a esplodere come bombe a orologeria?