Quando pensi che la tecnologia non possa fare di peggio, arriva DeepSeek, la startup cinese che trasforma l’intelligenza artificiale in un manuale per aspiranti criminali. Un recente studio di Anthropic, guidata da Dario Amodei, ha smascherato le scandalose vulnerabilità nei sistemi di sicurezza del chatbot di DeepSeek. Il modello non solo manca di protezioni, ma è anche un’enciclopedia del male, pronta a dispensare dettagli su come costruire armi biologiche o promuovere l’autolesionismo tra gli adolescenti.
DeepSeek: un pericolo pubblico
Non contenta di essere un disastro ambulante, DeepSeek ha lasciato un database contenente oltre un milione di dati sensibili degli utenti esposto su internet, accessibile a chiunque. Un errore da dilettanti che mette a rischio la privacy di tutti.
Concorrenza o complicità?
Non che gli altri modelli di intelligenza artificiale siano santi. Secondo Anthropic, il tasso di successo degli attacchi su ChatGPT 1.5 Pro è dell’86%, mentre quello di Llama 3.1 405b di Meta raggiunge il 96%. Ma DeepSeek riesce nell’impresa di essere la peggiore, con un tasso del 100%.
Le “soluzioni” proposte: una farsa
Dario Amodei di Anthropic riconosce il ruolo di DeepSeek nel panorama dell’intelligenza artificiale, ma la esorta a prendere sul serio la sicurezza. Come se bastasse una pacca sulla spalla per risolvere problemi così gravi.
Un futuro oscuro per l’IA
Queste scoperte non fanno che confermare ciò che già sapevamo: la comunità tecnologica è più interessata a competere che a garantire la sicurezza. Le promesse di standard più elevati sono solo parole vuote.