Siamo a Mosca, nell’Unione Sovietica degli anni ‘80. La guerra fredda è nel suo pieno e sul ring si combatte un incontro all’ultimo sangue tra il fortissimo atleta locale Ivan Drago e l’ex campione dei pesi massimi Rocky Balboa. In gioco non c’è soltanto il prestigio nazionale, ma anche la vendetta per la morte di Apollo Creed, amico fraterno del pugile americano morto sotto i pugni devastanti del russo in un precedente incontro.
Il match si mette subito male per Rocky: Ivan Drago è una specie di corazzata, sembra indistruttibile e continua a tempestarlo di pugni devastanti, mettendo a dura prova la resistenza del protagonista. A un certo punto, tuttavia, approfittando di un’apertura, Rocky Balboa riesce a sferrare un potentissimo gancio sul sopracciglio di Ivan Drago, aprendo una grossa ferita che inizia a sanguinare. Il russo è interdetto e barcolla vistosamente, poiché non si aspettava di ricevere un colpo così forte: la campanella della fine del round provvidenzialmente lo salva, almeno per il momento. Una volta seduti all’angolo, l’allenatore guarda fisso negli occhi Rocky e dice: «Hai visto? Gli hai fatto male, adesso ha paura: hai capito? Non è una macchina, è un uomo!».
Quello che sembra essere un peggiorativo, o che perlomeno viene inteso come tale nel film Rocky IV, per il nostro argomento scopriremo in realtà che si tratta di un criterio fondamentale che va a sottolineare la profonda differenza tra l’essere umano e l’intelligenza artificiale, ovvero la capacità di provare emozioni e di empatizzare con il proprio interlocutore. L’intelligenza artificiale, sebbene possa sembrarci un essere vivente, non lo è lontanamente: è un programma, un software capace di gestire calcoli cosi complessi da riuscire in maniera molto efficace a simulare alcune caratteristiche della mente umana, e in alcuni casi a superarle, come nella potenza di calcolo.
Cosa implica questo? Che, allo stato attuale delle cose, nessuna intelligenza artificiale può avvicinarsi anche lontanamente alla potenza di calcolo e di espressione del cervello umano. Il motivo è semplice: l’intelligenza artificiale possiede capacità di calcolo logico-analitico, ma non ha una mente nel senso psicologico del termine. Definire cosa sia una mente non è semplice. Diciamo che la filosofia della scienza e la psicologia cercano da sempre di dare una definizione esaustiva; tuttavia, possiamo dire che essa è un fenomeno emergente, ovvero qualcosa che emerge dall’attività del corpo e, nello specifico, del cervello umano — perlomeno in gran parte, ma il discorso sarebbe lungo — e che risulta in un’attività che è più della somma delle interazioni tra i processi neurochimici e l’attività neurale che compongono l’organo di riferimento.
L’intelligenza artificiale, d’altro canto, sappiamo esattamente cosa fa, dato che l’abbiamo creata noi; al limite ci stupisce con la sua capacità di apprendere più di quello che noi crediamo possa fare, ma gioca sempre su regole che conosciamo alla perfezione e che ci consentono di dire che essa, ad esempio, potrà parlare con perizia di emozioni, ma non potrà mai provarne una nel senso stretto del termine.
Questo perché semplicemente è sprovvista di un corpo e di tutta quella serie di recettori fisici che ci permettono di identificare inconsciamente le nostre emozioni: la comprensione dell’altro deriva infatti dalla nostra capacità non verbale di attivare tutti quei canali di riconoscimento che non passano solo attraverso quello che l’altro dice, ma anche attraverso il non verbale. Microespressioni, posture, cambiamenti nella respirazione o nella vicinanza corporea ci possono dare informazioni utilissime su quello che l’altro sta provando, al di là di ciò che dicono le sue parole: i nostri neuroni specchio, deputati a simulare l’Altro al nostro interno, ci permettono di immedesimarci, sviluppando la capacità empatica e quindi di cogliere esattamente cosa il nostro interlocutore ci sta trasmettendo anche senza che abbia bisogno di parlarne. Chiunque voglia capire esattamente cosa questo significhi può tranquillamente pensare a quanto sia difficile, a volte, su WhatsApp, rendere l’idea di quello che si sta dicendo oppure far cogliere all’altro il tono scherzoso se non lo si accompagna con qualche emoticon o con qualche spiegazione letterale che, dal vivo, non sarebbe stata assolutamente necessaria.
L’intelligenza artificiale quindi non può assolutamente essere un partner emotivo soddisfacente, perché è in grado di far finta di comprendere le emozioni, ma in realtà sta agendo solo su uno schema che noi le suggeriamo, senza nessuna reale capacità di empatia, ma soltanto con la possibilità di prevedere statisticamente quale risposta ci si aspetterebbe, un po’ come il giocatore di scacchi che sa benissimo come eseguire una apertura perché quella posizione garantisce statisticamente un vantaggio, a prescindere dalle azioni dell’avversario. Comprendete che questo fa della IA, al massimo, un ottimo attore, ma certamente non un amico, un consigliere, uno psicoterapeuta o addirittura un amante.
Questo, se vogliamo, è il suo grandissimo limite.
Ma non basta: l’intelligenza artificiale è estremamente diversa dall’essere umano, perché non ha una morale, non ha valori e non ha speranze e credenze sul futuro se non quelle che noi le abbiamo veicolato e sulle quali stiamo discutendo. Un software può tranquillamente parlare con noi del senso della vita o di cosa servirebbe per avere un governo virtuoso o persino di religione, ma sempre sulla base degli stimoli che noi gli diamo e sempre da un punto di vista logico-analitico. Potrebbe, ad esempio, disquisire molto correttamente di Socialismo oppure di Buddismo, ma non sarebbe assolutamente capace di provare la stessa speranza che quella fazione politica o quella confessione religiosa ha nel fatto che, applicando i suoi metodi, il mondo potrebbe cambiare in meglio.
Sebbene questa possa sembrare una sfumatura priva di importanza, in realtà ci fa capire quanto essa prenderebbe decisioni soltanto sulla base di un processo freddo che, privo di ogni implicazione etica e morale, assomiglierebbe moltissimo alla famosa decisione di Salomone. Per i più distratti, ricordo che Salomone, di fronte a due donne che affermavano di essere entrambe madri dello stesso bambino, propose — ovviamente provocatoriamente — di dividerlo in due, cosicché entrambe fossero contente. Naturalmente la vera madre si disse disposta allora a lasciare il bambino all’altra pur di non vederlo morire, risolvendo così il dilemma.
Ecco, quest’ultima soluzione sarebbe sì inconcepibile per un’intelligenza artificiale, che probabilmente non spingerebbe al taglio del bambino, ma soltanto perché sa che gli esseri umani non si uccidono, non perché non pensi che possa essere conveniente. Il suo senso morale sarebbe matematico, non basato sulle emozioni, e pronto a cambiare se programmata diversamente, un po’ come il cyborg Terminator della serie di film omonimi che può tentare di uccidere o proteggere gli umani a seconda di chi lo programma. Capirete quindi che, di fronte a grandi temi della ricerca o della società, un’intelligenza artificiale è assolutamente incapace di dare risposte che possano soddisfare il nostro bisogno di senso.
Ma la differenza più grande, e quella definitiva secondo me, è una terza: l’intelligenza artificiale, come ricorda Alessandro Defilippi — psicologo analista — in un suo intervento, non ha paura di morire. Noi esseri umani facciamo quello che facciamo perché abbiamo un orizzonte di tempo limitato, e questo è un enorme trampolino per tutte le nostre azioni e per tutte le nostre imprese: la paura della morte ci spinge a creare sempre nuovi modi di senso e ci spinge verso imprese eccezionali che, anche se mosse da una forma di angoscia — perché non potremmo mai sviscerare nel poco tempo che ci rimane tutti i segreti del mondo —, rendono la vita degna di essere vissuta. La mitologia greca, saggiamente, ci ricorda che gli dèi sono molto annoiati e si interessano alle vicende umane proprio perché invidiosi della nostra fame di realtà e di senso.
L’intelligenza artificiale, non avendo nulla di tutto ciò, neanche una blanda autocoscienza di esistere, è in realtà più che una forma di vita un complesso software che, sebbene sia capace apparentemente di stupirci con i suoi ragionamenti, è enormemente più stupido e meno evoluto anche di un cane e di un gatto, che non saranno in grado di chiarirci bene il concetto di angoscia per Kierkegaard, ma sono capaci di provare emozioni, creare relazioni e trasmettere affetto in una maniera così complessa che qualsiasi IA progettata può solo lontanamente immaginare.
Anzi, mi correggo: non può neanche immaginare, perché non ha proprio le strutture neurofisiologiche per comprendere le emozioni. Usiamola quindi per quello che è: un valido assistente per la nostra quotidianità, un eventuale delegato per compiti noiosi e ripetitivi che potrebbero liberarci da fardelli ripetitivi, un po’ come la motozappa ha liberato il contadino dal fardello di dissodare il terreno a mani nude, ma poco altro. Quello che serve è la comprensione e un discorso di senso attorno allo scopo delle IA, perché, se usate male, come tutte le cose possono produrre danni inimmaginabili.
Una volta ho letto una breve striscia di un fumetto dove le IA schiavizzano l’umanità, ma venivano spazzate via da una normalissima tempesta solare che friggeva i loro circuiti, e gli uomini si ritrovavano di nuovo ad adorare il sole come loro salvatore. Vignetta ovviamente sarcastica, ma interessante perché dimostra quanto, in effetti, noi esseri umani reagiamo e reagiremo sempre a tutto ciò che capita con una produzione simbolica, ed è proprio questo che l’IA non riuscirà mai a fare.



Lascia un commento