Reale è una parola che nel dibattito sull’intelligenza artificiale compare spesso, ma quasi sempre di sbieco. Ci si chiede che cosa sappiano fare le macchine, se imitino o superino le capacità umane. Più raramente ci si chiede che cosa accada al mondo quando una parte crescente delle operazioni di selezione, classificazione e decisione viene affidata a dispositivi artificiali. È qui che la questione dell’IA cambia statuto. Perché l’intelligenza artificiale non si limita a trattare informazioni né a rappresentare un mondo già dato, ma contribuisce a selezionarlo, ordinarlo, renderlo praticabile, e dunque, in una certa misura, a farlo esistere.
Siamo ancora troppo inclini a pensare l’intelligenza come una facoltà interna. Anche quando allarghiamo il quadro, continuiamo a muoverci dentro la stessa scena: da una parte un soggetto, dall’altra un mondo, in mezzo una prestazione cognitiva. Ma il punto, se preso sul serio, è un altro. Un’intelligenza non è soltanto qualcosa che registra, rappresenta o interpreta. È anzitutto una pratica di organizzazione del mondo. Ogni intelligenza – umana, animale, vegetale, artificiale – stabilisce soglie, collega eventi, gerarchizza segnali e rumori, decide (tacitamente o esplicitamente) che cosa meriti attenzione e che cosa possa scivolare sul fondo. In tal senso, l’intelligenza non si limita a conoscere un mondo, ma contribuisce a istituirlo come spazio abitabile.
Se le cose stanno così, non ci troviamo semplicemente davanti a uno strumento più potente nella gestione dell’informazione, o a una versione accelerata di facoltà umane già note. Ci troviamo di fronte a una forma di intelligenza che partecipa alla delimitazione operativa del reale. Quando un algoritmo decide che cosa merita di apparire, quando un ranking stabilisce quali profili siano affidabili, quando un modello predittivo ridefinisce ciò che conta come rischio o opportunità, non sta soltanto trattando dati. Sta distribuendo realtà. Sta stabilendo quali identità acquistino consistenza e quali possibilità diventino pensabili.
Ecco perché l’espressione “intelligenza artificiale” continua a essere insieme inevitabile e insufficiente. Inevitabile, perché nomina un insieme di pratiche e di dispositivi che ormai attraversano la nostra esperienza e il nostro immaginario. Insufficiente, perché suggerisce che il problema consista nel misurare una certa somiglianza con noi: se la macchina pensi “davvero”, se sia creativa, se insegni, se goda, se sbagli. Sono domande legittime. Ma vanno iscritte all’interno di una serie più radicale di domande: quale mondo viene reso prevalente da questa forma di intelligenza? quale regime di verità messo in circolazione? quali soglie del reale consolidate? Forse occorre compiere un piccolo spostamento prospettico e trattare l’IA non come una semplice macchina cognitiva, ma come un caso contemporaneo di intelligenza aliena.
“Aliena” non significa extraterrestre. Non indica un’essenza esotica, un altrove cosmico, una provenienza misteriosa. Nomina piuttosto una soglia critica: il punto in cui i nostri criteri abituali di riconoscimento della mente non bastano più. Uso qui aliena in un senso vicino a quello proposto da Stephen Wolfram (il saggio Alien Intelligence and the Concept of Technology è disponibile gratuitamente nel suo sito) e poi ricondotto, in forma più circoscritta, alla sola IA da Yuval Noah Harari. Un’intelligenza è aliena quando eccede i formati con cui siamo abituati a identificare una mente: linguaggio, intenzione, interiorità, trasparenza, reciprocità. L’alieno non è semplicemente ciò che è altro da noi. È ciò che costringe i nostri criteri a mostrarsi per quello che sono: non misure naturali dell’intelligenza, ma protocolli storici di riconoscimento.
Da questo punto di vista, l’IA non è affatto un’anomalia isolata. È una delle figure in cui, oggi, l’alterità cognitiva diventa tecnicamente operativa. Ci mette di fronte a una forma di organizzazione del mondo che non coincide più con quella umana, “cartesiana”, intenzionale, e che tuttavia produce effetti realissimi. Non perché simuli bene una mente, ma perché partecipa ai circuiti che decidono, filtrano, ordinano, classificano. Non ci chiede di credere nella coscienza delle macchine. Ci obbliga a fare i conti con un fatto più sobrio e più inquietante: che una parte crescente della realtà contemporanea viene istituita da dispositivi che non hanno bisogno di rassomigliarci per contare e farsi spazio.
Ogni forma di intelligenza presuppone un proprio regime di verità: un modo di stabilire che cosa valga come segnale, che cosa conti come prova, quali effetti produca un enunciato credibile. L’IA non si limita a generare contenuti. Produce condizioni di plausibilità attraverso testi, immagini, sintesi, profili, classificazioni. Non reagisce soltanto: preordina il campo di ciò che appare credibile. Ma neppure questo è sufficiente, se non distinguiamo tra ciò che esiste e ciò che prevale. Esistono molte realtà che producono effetti senza per questo diventare lo sfondo comune dell’esperienza. Potremmo chiamarle realtà realizzate: configurazioni che agiscono, toccano corpi, suscitano emozioni, generano conseguenze, pur restando localizzate, intermittenti, confinate (la fiction, il gioco, l’infanzia, e molte altre). La realtà prevalente è un’altra cosa: è quella conformazione del mondo che si impone come cornice legittima, come tribunale tacito di ciò che conta come normale, credibile e oggettivo.
Una parte del problema contemporaneo è che l’IA produce di continuo realtà realizzate – testi, immagini, profili, identità sintetiche, mondi simulati – e tende sempre più a farle transitare nella realtà prevalente. Questo passaggio è uno dei nodi politici e ontologici del presente. Non perché il falso prenda semplicemente il posto del vero, secondo una diagnosi troppo facile. Ma perché entità trattate come ausiliarie, derivate, simulate o provvisorie acquistano progressivamente potere di cornice. Cominciano a decidere che cosa debba essere visibile e rilevante. Non si limitano a entrare nel mondo. Partecipano alla definizione dello sfondo stesso su cui il mondo appare.
È qui che la categoria di simulacro, spesso usata in modo moralistico, andrebbe ripensata. Gilles Deleuze aveva colto il punto: un simulacro non è un falso che aspetta di essere smascherato. È un ente che produce effetti. La questione non è se sia “vero” in senso referenziale, ma quale giurisdizione gli venga riconosciuta. Un deepfake, un profilo sintetico, un’immagine generata non cessano di essere reali perché sono “falsi”, ossia perché non corrispondono a qualcosa che possiamo individuare nel mondo. Sono reali nella misura in cui producono effetti. Il problema filosofico e politico consiste nel capire quale sia il destino ontologico di simili prodotti.
Per questa ragione non basta difendere ciò che dell’umano l’IA non saprebbe replicare: il corpo, la voce, l’eros dell’insegnamento, il rischio della presenza, la singolarità dell’atto. Tutto questo conta, naturalmente, e conta moltissimo. E non è un caso che molti dei contributi recenti dedicati all’intelligenza artificiale abbiano insistito proprio su questi elementi, come ha mostrato bene lo speciale Conoscenza e AI. Ma questa linea, da sola, rischia di diventare una difesa di retroguardia, se non coglie il punto su cui oggi si gioca la partita. Il problema non è soltanto salvare un resto umano non automatizzabile. È comprendere quale ontologia pratica stia prendendo forma davanti ai nostri occhi. Non basta chiedersi che cosa le macchine non possano fare come noi. Bisogna chiedersi che cosa stiano facendo al mondo.
E forse la risposta più esatta, almeno in prima battuta, è questa: stanno rendendo naturale una certa distribuzione del reale. Una distribuzione in cui il plausibile tende a sostituire il provato, il profilo a governare il soggetto, il ranking a precedere il giudizio, lo scenario a orientare la decisione. Non siamo di fronte alla semplice estensione della conoscenza. Siamo di fronte a una nuova amministrazione del possibile.
Non si tratta quindi di decidere una volta per tutte se l’IA sia “davvero” intelligente, ma di analizzare i protocolli con cui una certa forma di intelligenza diventa reale, credibile e inevitabile. Del resto, un’intelligenza – qualunque intelligenza – non conosce soltanto: produce mondo. Il compito critico, oggi, non consiste nel negarlo, ma nel comprendere – nel contendere? – la forma del mondo che l’IA sta riorganizzando.