ChatGPT sapeva già tutto sulla strage in Canada, ma OpenAI ha fatto finta di niente

ChatGPT sapeva già tutto sulla strage in Canada, ma OpenAI ha fatto finta di niente

Mesi prima che Jesse Van Rootselaar diventasse la principale sospettata della sparatoria di massa che ha fatto saltare in aria una tranquilla cittadina rurale nella Columbia Britannica, OpenAI ha seriamente pensato di avvisare le forze dell’ordine delle sue conversazioni con il chatbot ChatGPT. Sì, proprio così: un’intelligenza artificiale era un passo avanti sulle autorità. Secondo il sensazionale scoop del Wall Street Journal, mentre Van Rootselaar si intratteneva a chattare lo scorso giugno, avrebbe descritto scenari di violenza armata con un’ostinazione che neanche una soap opera di bassa lega.

Sorprendentemente, quei messaggi non sono passati inosservati: il sistema di revisione automatizzato di OpenAI ha immediatamente lanciato l’allarme e una dozzina di impiegati si sono ritrovati a fare la solita danza dell’indecisione, chiedendosi se fosse il caso di intervenire. Alcuni, con rara lucidità, hanno addirittura suggerito di chiamare la polizia. Ma i lampi di genio dirigenziali hanno trionfato, decidendo di non disturbare troppo le forze dell’ordine: dopotutto, non si poteva ancora parlare di un rischio “credibile e imminente”. Insomma, se sputi minacce di una carneficina in più giorni, ma non c’è un “pericolo immediato”, chi vuoi che si interessi?

Il 10 febbraio, la realtà ha preso la sua strada più cruenta: Van Rootselaar è stata trovata morta, con tracce evidenti di autolesionismo, sul luogo della sparatoria che ha lasciato otto vittime e almeno venticinque feriti. Dopo la strage, si è finalmente scatenata la chiamata alla Royal Canadian Mounted Police, con l’immancabile supporto investigativo garantito da OpenAI. In una nota tanto consolatoria quanto formalmente vuota, l’azienda ha voluto “mostrare il proprio sostegno a chi ha subito la tragedia di Tumbler Ridge”, come se bastasse una frase fatta a colmare la distanza tra prevenzione e reazione tardiva.

Ma non finisce qui. Perché, giusto per aggiungere un tocco macabro di prevedibilità, i comportamenti online di Van Rootselaar non erano una novità: aveva creato un videogame su Roblox che simulava una strage in un centro commerciale, un passatempo che fortunatamente non ha mai raggiunto i giocatori casuali. Più inquietante ancora, la giovane era pronta a mettere in scena la sua tragedia personale sui social, postando foto di sé stessa mentre si divertiva al poligono di tiro. Non poteva mancare il tocco tecnologico: vantava persino di aver fabbricato una cartuccia con una stampante 3D, immergendosi nelle discussioni online su video di appassionati di armi su YouTube.

La solita storia di allarmi ignorati e protocolli fallimentari

Incapaci di riconoscere un pericolo palese dietro uno schermo, o magari semplicemente rassegnati a una politica di “no, grazie” perché il rischio deve essere imminente per agire, le autorità digitali e umane hanno mostrato ancora una volta il loro ineffabile talento nella gestione delle catastrofi annunciate.

La faccenda ci ricorda quei momenti epici in cui segnali chiari di catastrofi a venire sono filtrati attraverso un buco nero di protocolli burocratici, false rassicurazioni e, soprattutto, paura di attaccare libertà personali fino all’ultimo tiro di pistola virtuale. Perché avvisare? Magari si trattava solo di un appassionato di videogiochi maniaco della stampa 3D. Ed è così che la tragedia, predetta e registrata pixel dopo pixel, ha trovato terreno fertile per compiersi.

Dopotutto, cosa importa se un algoritmo denuncia? Una dozzina di dipendenti preoccupati può sempre diventare un comitato per l’osservazione passiva, con la scusa del nonsenso burocratico. Il risultato? Otto morti e venticinque feriti. Ma almeno l’account è stato sospeso, un gesto tanto simbolico quanto inutile. E in tutto ciò, un’intelligenza artificiale che segnala segnali inquietanti viene lasciata a guardare senza poter scalare l’allarme abbastanza in fretta.

Quando la sicurezza diventa un gioco a incastro

Dal videogame che simula una sparatoria di massa a un cartaceo digitalizzato di un fanatico con stampante 3D, la storia di Van Rootselaar è un manuale vivente di come la vulnerabilità del sistema sia tanto tecnologica quanto umana: algoritmi troppo rigidi su criteri “credibili” e “imminenti” e umani insensibili o impauriti da dover anticipare il peggio.

È il racconto di una rete di sicurezza bucata da norme apologetiche della non-interferenza, infilate gelosamente tra timori di privacy e funzionari più attenti a non creare falsi allarmi che a prevenire tragedie effettive.

In fondo, se una minaccia scritta si trasforma in un massacro reale, chissà se fra qualche anno qualcuno leggerà queste cronache di insipienza come monito o, più verosimilmente, le insulterà come “altre storie di routine”.

Siamo SEMPRE qui ad ascoltarvi.

Vuoi segnalarci qualcosa? CONTATTACI.

Aspettiamo i vostri commenti sul GRUPPO DI TELEGRAM!