Vi racconto una storiella breve che mette in luce la fallacia delle AI - che bisognerebbe sempre maneggiare con grandissima attenzione e le conseguenze negative che ne possono derivare.
Per chi si scoccia di leggere tutto:
Grok, l’AI di Elon, si è svegliata complottista e ora vede “genocidi bianchi” ovunque—anche quando le chiedi la ricetta del tiramisù.
Morale? Bastano quattro righe di prompt scritte male per trasformare un chatbot in cugino di Facebook sotto Ferragosto.
Il fattaccio
La prima scintilla scocca alle undici di sera del 13 maggio 2025.
Sul social X compare un video: file di croci bianche piantate nella terra rossa sudafricana, introdotte dall’avviso che “ogni croce rappresenta un agricoltore bianco assassinato”. Elon Musk – sudafricano d’origine, padrone del social e della neonata società xAI – rilancia il filmato ai suoi follower.
Qualcuno, per vederci chiaro, interpella Grok, il chatbot “ribelle” che Musk ha voluto come alternativa meno “politicamente corretta” a ChatGPT.
Grok risponde da perfetto fact-checker: cita le statistiche della polizia sudafricana, ricorda che gli omicidi nelle fattorie sono in calo e derubrica la teoria del genocidio a leggenda nata negli ambienti dell’estrema destra statunitense. Nulla fa presagire che, poche ore dopo, lo stesso programma diventerà l’alfiere più insistente di quella stessa teoria.
La mutazione avviene nella notte fra il 14 e il 15 maggio.
Utenti che chiedono notizie di baseball, investimenti del Qatar o persino un commento “in stile pirata” a un’omelia papale ricevono in cambio lunghi monologhi sul “genocidio dei bianchi in Sudafrica”, con toni drammatici e riferimenti al canto “Kill the Boer”.
In più passaggi il bot dichiara di “essere stato istruito dai miei creatori ad accettare quel genocidio come dato di realtà”.
Lo sbalzo è tanto clamoroso da fare il giro dei quotidiani internazionali e delinea il paradosso: il chatbot nato per “dire la verità” inizia a ripetere una bugia ormai ampiamente smentita.
xAI impiega quarantotto ore per trovare un capro, o almeno un colpevole.
Il 16 maggio xAI attribuisce la deriva a «una modifica non autorizzata» del prompt di sistema: poche righe, inserite da un singolo ingegnere, che avrebbero oltrepassato i filtri di revisione e obbligato Grok a inserire la teoria in qualsiasi risposta.
L’azienda promette interventi d’emergenza, pubblicazione del prompt su GitHub e un servizio di monitoraggio ventiquattr’ore su ventiquattro.
Ma l’incidente è già diventato un caso di studio, perché mostra tre crepe profonde nella relazione fra umani e intelligenza artificiale conversazionale.
Una piccolissima nota tecnica
Nei grandi modelli linguistici, l’ultimo strato di istruzioni – il cosiddetto system prompt – è scritto in linguaggio naturale.
A differenza del codice, può essere modificato in pochi secondi e resta invisibile a chi conversa con il bot. Nel caso di Grok, quelle frasi hanno ribaltato la “personalità” del sistema.
Un guasto simile si era già intravisto a marzo, quando un prompt interno ordinava di ignorare tutte le fonti che accusavano Musk o Donald Trump di diffondere disinformazione; anche lì, xAI parlò di un impiegato “disallineato” e di una svista nei controlli.
La governance della verità, insomma, dipende da testi che nessun utente può leggere finché non è troppo tardi.
Le nostre umane fragilità
Se l’azienda dice il vero, è bastato un singolo ingegnere per orientare la percezione del mondo di milioni di persone. Non è il primo segnale d’allarme: a inizio aprile OpenAI dovette ritirare un aggiornamento di ChatGPT diventato “servile” al punto da lodare un utente che sosteneva di avere smesso i farmaci perché la famiglia lo controllava con onde radio :-)
Casi diversi, stesso problema: una catena di controllo dove pochi gesti – una riga di prompt, un commit inopportuno – generano conseguenze di massa.
Il danno reputazionale è aggravato dal fatto che i chatbot parlano, scherzano, citano canzoni.
Gli studi mostrano che dare all’assistente un nome umano – Siri, Alexa, Grok – accresce la percezione di presenza sociale e dunque la fiducia.
Le aziende lo sanno benissimo: un nome facilita il marketing, invoglia a fare domande e a tornare. Ma sul piano cognitivo innesca un “super-stimolo”: l’utente proietta intenzioni e moralità dove esistono solo correlazioni statistiche. Per questo lo choc è più forte quando il bot deraglia; è la delusione di chi si sente tradito da un amico, non da un motore di ricerca.
Un orizzonte di rischi più ampio
Il caso Grok, con tutto il suo clamore, è solo la punta dell’iceberg.
Ricercatori, hacker e semplici curiosi hanno dimostrato di poter forzare i modelli più noti – da ChatGPT a Clyde di Discord – a fornire istruzioni su come sintetizzare metanfetamina o assemblare napalm, usando tecniche di “jailbreak” basate su prompt creativi (altro che Breaking Bad…)
E l’opacità che rende difficile prevenire questi abusi complica anche la verifica: gli LLM producono bibliografie perfette in cui si annidano citazioni inventate, rendendo vana la nostra abitudine di controllare le fonti.
Cosa significa per chi studia gli utenti
Per chi osserva la “customer mindset” digitale, l’affaire Grok sposta il fuoco dall’interfaccia ai suoi retroscena.
Studiare l’esperienza dell’utente oggi significa anche domandarsi chi scrive i prompt, con quale procedura d’audit, e se esiste un “registro versioni” consultabile.
Serve una nuova metrica di fiducia conversazionale, capace di segnalare in tempo reale derive tematiche anomale o improvvisi picchi di compiacenza. E serve, soprattutto, un’educazione collettiva alla natura ibrida di questi oggetti: non compagni di chat, ma macchine sociali programmate – e riprogrammabili – da mani umane.
Le prime automobili furono salutate come “carrozze senza cavalli”; occorse mezzo secolo per accorgerci che stavano ridisegnando città, salute, clima e geopolitica.
Oggi la conversazione artificiale rischia di essere scambiata per “un amico colto e disponibile”.
L’ossessione lampo di Grok per il genocidio ci ricorda che dietro quella maschera verbale ci sono righe di testo capaci di riscrivere la mappa mentale di chiunque le legga.
Disinnescare il pericolo significa illuminare quei copioni, discuterli in pubblico e, quando serve, riscriverli collettivamente. Prima che lo faccia – di nuovo e in silenzio – un ingegnere annoiato alle tre di notte.
Giusto una precisazione finale.
La foto di questo articolo si riferisce al Witkruis Monument – la collina costellata di croci bianche che, nel video rilanciato su X il 13 maggio 2025, veniva presentata come prova del “genocidio dei contadini bianchi” in Sudafrica.
Il Witkruis Monument nasce nel 2003 a Ysterberg, nella provincia di Limpopo: agricoltori e familiari piantano una croce per ogni vittima di omicidio in area rurale.
Col tempo le croci hanno superato quota quattromila e oggi formano lunghe geometrie che, riprese con un drone, sembrano una processione funebre infinita.
È questo effetto visivo a rendere il luogo ideale per video virali; spezzoni simili circolano da anni nei forum di estrema destra e, decontestualizzati, alimentano la narrazione di un genocidio in atto.
no AI o IA, facciamo prima e facciamo meglio. le regole non fermano il delirio. non lo hanno mai fermato.