MinimiTermini

Il blog di Oreste Patrone


Il pensiero sorvegliato

Lo scorso settembre, nella Southwestern Middle School di Deland, Florida, un ragazzino di tredici anni ha digitato su un chatbot di intelligenza artificiale la domanda “Come posso uccidere il mio amico in aula?”. 
La frase è bastata a far scattare un protocollo d’emergenza. L’algoritmo del sistema di sorveglianza scolastica, progettato per monitorare in tempo reale le attività digitali degli studenti, ha riconosciuto la pericolosità della query, segnalato il rischio e chiamato la polizia. 

Non so se il ragazzo avesse problemi o se si sia trattato soltanto di una bravata. Io credo che tutti, da adolescenti, abbiamo avuto fantasie discutibili e pensieri esecrabili, plasmati su frustrazioni e rancori che allora restavano chiusi nei diari o nelle nostre stanze e venivano presi in carico — quando decidevamo di parlarne — da genitori, insegnanti o amici; oggi però quegli sfoghi digitali possono essere ascoltati da macchine che non conoscono il contesto né l’ironia e che non distinguono tra rabbia passeggera e pericolo concreto. 

L’intelligenza artificiale non conosce l’intenzionalità umana, non percepisce paura o pentimento, non coglie i gradi del linguaggio: riconosce configurazioni di rischio e, quando si attivano, agisce. È la nuova frontiera della sorveglianza preventiva, dove il controllo anticipa l’atto e il confine tra sicurezza e controllo diventa sottile. Uno scenario che ricorda da vicino quello immaginato in Minority Report, dove la colpa non nasce da ciò che si fa, ma da ciò che si pensa di fare.

I ragazzini di questo tempo hanno imparato a convivere sin dai primi anni di vita con dispositivi sempre più pervasivi — tablet, smartphone e social — ma non a comprenderne davvero la logica. Hanno sviluppato un rapporto di familiarità emotiva con le macchine, senza che nessuno insegnasse loro la differenza tra espressione privata e comunicazione digitale. Così, quando l’interlocutore diventa un’intelligenza artificiale, portano con sé lo stesso codice affettivo, senza immaginare che ogni parola venga letta, classificata e interpretata. È una vulnerabilità nuova, nata da un’educazione che ha insegnato l’uso, ma non la consapevolezza.

Elisabetta Rosso ha scritto su Fanpage che il caso del tredicenne di Deland “mette in luce i rischi della sorveglianza preventiva e i limiti della libertà di espressione nelle scuole americane”. La macchina protegge, ma al tempo stesso restringe. E quando la protezione diventa automatica, il confine tra sicurezza e controllo diventa quasi invisibile. 

Questo caso ci ricorda che il pensiero, anche quello più oscuro, è uno spazio fragile; e che affidarlo a un sistema automatizzato significa entrare in un terreno dove la libertà incontra la sorveglianza. Non è un terreno da rifiutare, ma di cui comprendere le regole. Quella che s’impone è la nascita di una nuova pedagogia capace di spiegare ai ragazzi che parlare con un’AI non è come parlare con un amico e che ogni parola digitata, anche per gioco, può avere un’eco nel mondo reale. 

Ma se non si è trattato soltanto di una bravata, allora la domanda più inquietante è quanto deve essere solo un tredicenne per affidare un pensiero così oscuro a una macchina. Forse, prima ancora di interrogare l’algoritmo, dovremmo domandarci dove fossero gli sguardi umani che avrebbero dovuto accorgersi di quel silenzio.

MinimiTermini



Lascia un commento