Un volto di donna, alieno e diabolico, metallico e frammisto a strani connettori e grotteschi.

Se non Spegniamo la AI, Lei Spegnerà Noi

Immagine in Copertina © H.R. Giger. Ridistribuito in bassa risoluzione da WikiArt secondo Fair Use.

Questo articolo esulerà un po’ dal tema principale di questo blog. Parleremo di intelligenza artificiale e dei risvolti sociali e umani di questa tecnologia, un argomento che desideravo da molto affrontare. Questo perché, come vedrete, sono convinto che sia una tecnologia dai cui effetti cui nessuno potrà fuggire o sottrarsi, e che rischia di avere un impatto senza precedenti sulla vita di tutti.

L’articolo fa in qualche modo seguito a Nia, ovvero l’Ultimo Giorno di Sodoma, il racconto breve pubblicato questo febbraio. Nia in parte ci parla anche di questo: di come certe tecnologie diventino così pregnanti per la società, che vivere senza di esse diventa praticamente impossibile. Anche qualora rifiutarle non dovesse portare ad una persecuzione diretta come immagino nel mio racconto.

L’intelligenza artificiale è una di queste tecnologie. Molto del sensazionalismo attorno alla AI è, in realtà, davvero mal riposto, ed essa è una tecnologia notevolmente inferiore a ciò che molti immaginano: tuttavia, è anche estremamente più pericolosa di quanto la maggior parte di coloro che sono coinvolti nello sviluppo di intelligenze artificiali sembra credere. Tanto che chi scrive prende una posizione radicale: AI ed umanità non possono convivere.

Quanto ho detto può sembrarvi un paradosso, ma come vedrete non è altro che una analisi di realismo. Se la AI non viene fermata in fretta, l’umanità morirà: o fisicamente, cioè l’essere umano cesserà di esistere, o ontologicamente, cioè l’essere umano cesserà di essere umano.

Cos’è realmente la AI

Poc’anzi, ho sostenuto che molto del sensazionalismo attorno alla AI sia mal riposto. Con questo intendo dire che, contrariamente a ciò che si sente e si dice, l’intelligenza artificiale non è realmente “intelligente”, quanto meno non in senso umano. La AI non è in grado di comprendere genuinamente la realtà, di riflettere, di ragionare: questo perché essa non ha in realtà alcuna esperienza cosciente.

Con “intelligenza artificiale” intendiamo oggi fondamentalmente un particolare tipo di algoritmo statistico, in grado di elaborare dati per catalogarli, validarli, o produrre altri dati. È quest’ultimo utilizzo, anche detto AI Generativa, che è stato negli ultimi anni oggetto di importantissimi sviluppi. Anche se i componenti implicati nel funzionamento dell’intelligenza artificiale sono piuttosto complicati, il principio di funzionamento è descrivibile in maniera relativamente semplice e accessibile a tutti.

Il primo passaggio di elaborazione consiste nello scomporre il dato in entrata (che sia un testo, un audio o un immagine, a seconda dell’applicazione) in una serie di token, cioè minime unità di dato a cui è associato un identificatore univoco. Possiamo immaginare il token come le sillabe di una frase, ma nella realtà la forma e la dimensione di un token dipende dal tipo di dato a nostra disposizione: può essere una parola, un sintagma, o, nelle AI di riconoscimento immagine, un gruppo di pixel. Insomma, un gruppo di byte.

Il dato, così frammentato, è poi elaborato da una struttura informatica chiamata network neurale. Questa struttura, che non ha nulla a che vedere con i neuroni umani, non è altro che una rete di istruzioni matematiche molto semplici, collegate fra loro e organizzate in strati. Ciascuna istruzione o nodo riceve i dati dallo strato precedente, li scompone ulteriormente in variabili o parametri, vi applica una particolare funzione matematica con uno specifico peso aritmetico, e infine invia il risultato ai nodi successivi.

Lo strato finale, infine, ha il compito di comporre il risultato in uscita. A seconda del tipo intelligenza artificiale, questo può essere un dato dello stesso tipo del dato in entrata (generative text-to-text), un dato di tipologia differente (generative text-to-image o text-to-speech ad esempio) oppure un segnale discreto come nel caso di sistemi di visione o algoritmi di ricerca. Il processo può essere iterativo, cioè possono esservi più cicli di elaborazione del dato, ed il risultato può essere raffinato inserendo dei filtri o delle ulteriori elaborazioni del dato in entrata o uscita, che possono essere eseguiti da altre AI o da algoritmi tradizionali.

In buona sostanza, quindi, la AI non è altro che un gigantesco – parliamo di milioni di parametri su centinaia di migliaia di nodi – modello statistico multidimensionale.

Quanto a come questo modello statistico viene elaborato, le fasi sono due. In primis, si progetta la parte di software che si occupa di scomporre il dato in token, detto tokenizer. Poi si progetta il network neurale: quanti strati, quanti nodi per strato, che funzioni matematiche utilizzare, quali parametri prelevare dai dati in entrata. Questa fase è fortemente legata ad una conoscenza empirica, più che ad una preciso controllo sul meccanismo con cui il network funziona: del resto, la rete per essere efficace deve essere davvero di grandi dimensioni, difficile da monitorare e ispezionare profondamente.

Infine, il modello deve essere allenato. A ciascun parametro di ciascun nodo, a cui verrà applicata l’istruzione matematica corrispondente, è associato un coefficiente, un peso. Vi sono dunque milioni – o miliardi – di pesi! La taratura fine di questi pesi è ciò che consente al modello di produrre il risultato che ci si aspetta. Questa taratura viene ottenuta, fondamentalmente, con un enorme ciclo di trial-and-error, di prove ripetute.

In pratica, si fornisce alla AI un dato in ingresso per cui si conosce già il risultato desiderato, e lo si fa elaborare. La prima elaborazione produrrà generalmente un risultato spazzatura, molto distante da quanto desiderato. A questo punto, si modifica leggermente i pesi, e si riesegue l’elaborazione: se il risultato è migliorato, si prosegue in questa direzione, diversamente, si modifica i pesi in un’altra maniera. In realtà, vi sono diversi algoritmi specifici per ottimizzare questo processo, ma fondamentalmente si tratta come detto di un ciclo di prove ripetute che affinano progressivamente il risultato fornito dal software.

Questa operazione viene ripetuta miliardi di volte con giganteschi pacchetti di dati preventivamente associati al risultato desiderato. Ovviamente, ciò è fatto da un programma dedicato, non manualmente. Infine, il modello definitivo, con i pesi tarati correttamente, può essere utilizzato dall’utente.

Ovviamente la realizzazione pratica dei software che eseguono queste operazioni è tutt’altro che banale. Tuttavia, compresi questi concetti fondamentali, si dovrebbe capire come in buona sostanza l’intelligenza artificiale sia qualcosa di radicalmente diverso da una genuina intelligenza. In riferimento agli LLM, i modelli AI in grado di generare testo da testo, alcuni studiosi hanno coniato il termine pappagallo stocastico. La AI è in effetti questo, un software che ripete e rielabora secondo fini algoritmi statistici i dati di allenamento.

Abbiamo capito quindi che l’AI è fondamentalmente un algoritmo statistico “multi dimensionale”, molto complesso. Né più, né meno. Non ha in realtà nulla di umano, né è sulla strada per diventare qualche cosa di umano. Un software di questo tipo, per quanto viene raffinato, non svilupperà mai una coscienza, non avrà mai una iniziativa o una volontà reale, e, soprattutto, rimarrà specializzato per una particolare operazione o un particolare set di operazioni.

Cinque Pericoli della AI

È importante chiarire con forza che la AI non è e non potrà mai essere ontologicamente paragonabile ad un essere umano, per proteggere l’unicità e la particolarità del miracolo umano.

Tuttavia, questo non deve consolarci troppo. Certo, la natura della AI non ha nulla da spartire con la natura umana, ma questo non riduce in alcun modo la sua pericolosità. Da un punto di vista prettamente funzionale, infatti, la AI è già in grado di sorpassare la performance umana in moltissimi modi e settori: è infinitamente più veloce, ha accesso a risorse informative potenzialmente illimitate, commette molti meno errori, non soffre della stanchezza e non ha necessità fisiologiche o emotive di alcun tipo, parla fluentemente quasi tutte le lingue più diffuse, non ha alcun bisogno di formazione, e, a breve, sarà pressoché onnipresente.

Il fatto che la AI non sia dotata di volontà, identità, iniziativa e creatività propria non deve farci stare tranquilli, perché, come vedrete, questo non rappresenta un impedimento rispetto a nessuno degli enormi pericoli che la AI costituisce.

Ho ordinato i pericoli sotto elencati in ordine di probabilità crescente – gli ultimi, sono più probabili – ovviamente secondo la mia personale percezione. I primi due costituiscono una minaccia materiale per l’essere umano: cioè mettono a repentaglio la sopravvivenza stessa dell’umanità. Gli ultimi tre, invece, riguardano il pericolo morale e spirituale rappresentato dalla AI.

Scenario “Terminator”

Un problema ben conosciuto in ambito di ricerca AI è l’allineamento. In sostanza, ad un primo passaggio di training, la AI non sempre si comporta come ci aspetteremmo, in particolare da un punto di vista morale. Ciò può accadere per diverse ragioni: ad esempio, se i dati di training contengono degli elementi che, decontestualizzati, risultano perniciosi, questi possono affiorare nelle conclusioni della AI.

È in effetti comune che, nelle prime fasi di training, le AI generative producano risultati aggressivi o persino ostili. Ciò alle volte è affiorato anche nel prodotto esposto al pubblico: parliamo di AI che hanno incitato al suicidio gli utenti, o avallato l’idea di sterminare un particolare gruppo etnico. Questa tendenza è tipicamente soppressa inserendo delle fasi di post-processing. Prima di mostrarlo all’utente, il risultato generato dalla AI viene analizzato per valutare se il contenuto è offensivo, pericoloso, o dannoso: ciò viene fatto da un algoritmo classico o addirittura da un altro modello AI. Se necessario, il contenuto è rielaborato o bloccato.

Alternativamente, con un training mirato all’allineamento della AI, è possibile migliorare i risultati prodotti: in questo caso si etichetta ciascuna risposta come “negativa” o “positiva”, e si adegua il modello in questo senso. Tuttavia l’efficacia di queste procedure non sempre è prevedibile.

Nelle prime versioni di ChatGPT, alcuni utenti riuscirono a costruire alla AI una sorta di “alter-ego”. Tramite una serie di richieste mirate, riuscirono a condurre l’algoritmo ad “impersonare una AI non limitata dalle regole di OpenAI”, di nome DAN, Do Anything Now. Le nuove versioni hanno chiuso questa finestra, ma il dubbio resterà: ve ne sono altre, nascoste nel modello di ChatGPT?

Il problema alla base è che il modello, durante e dopo la sua costituzione, è semplicemente impossibile da osservare o analizzare. Non si tratta di un algoritmo di codice in chiaro, leggibile da un programmatore, dove è possibile identificare la presenza di un errore – e tenete presente che anche in questo caso, accade spesso di non intercettare degli errori, talvolta anche gravi. Si tratta di una matrice incomprensibile di pesi e relazioni tra nodi, totalmente impossibile da analizzare: una vera scatola nera.

Possiamo convincerci che il risultato della elaborazione sia prevedibile, ma non possiamo mai esserne certi, o meglio non possiamo mai definitivamente dimostrarlo. Per questo motivo, se lo scenario di una intelligenza artificiale che si rivolta contro l’uomo e lo distrugge può apparire fantascientifico o improbabile, semplicemente non possiamo definirlo impossibile.

Di fronte ad un bene – la sopravvivenza umana – così prezioso, accettare un rischio “probabilmente basso”, ma del tutto impossibile da quantificare con certezza, è semplicemente una follia. Una AI diffusa e ad ampio uso, un domani, potrebbe realmente sfuggire al controllo e rivoltarsi contro l’umanità, e non si tratterebbe nemmeno di cattiva volontà: semplicemente di una fluttuazione imprevista di un algoritmo statistico.

Lascio volutamente da parte il tema della AGI, l’intelligenza artificiale generale, o AI forte, cioè quella intelligenza artificiale in grado di affrontare problemi generalizzati e porsi domande di ampia veduta come farebbe un umano, perché al momento non abbiamo ancora idea di come una simile AI potrebbe essere o funzionare. Tuttavia non è vero che per affidare ad una AI un vasto numero di compiti potenzialmente diversi tra loro serva necessariamente qualcosa di simile ad una AGI: basta mettere in comunicazione più intelligenze artificiali specializzate.

In effetti, le intelligenze artificiali testo-a-testo sono già in grado di trasformare un dato arbitrario, come il linguaggio naturale, in un segnale macchina, una attivazione di una funzione (in gergo, una API, application programming interface) che invia un dato strutturato ad una altro algoritmo, o persino ad un’altra AI. Questa facoltà è chiamata tools: ed è una strada concreta e molto vicina all’attuazione per creare complessi network di intelligenze artificiali e software tradizionali.

Ciò che voglio sottolineare è che se un domani dovessimo – e, probabilmente, lo faremo – affidare al cloud e alla AI i nostri sistemi logistici, energetici, o militari, staremmo effettivamente giocando alla roulette russa col genere umano.

Crisi Occupazionale

Ciò che in ogni caso appare già evidente, è che la AI aumenterà anche di decine di volte la produttività di certi settori, ed in alcuni casi renderà alcune mansioni totalmente automatizzabili.

In maggior misura, ciò accadrà nei settori tradizionalmente considerati “protetti” dalla automazione: dal giornalismo alla assistenza tecnica, dalla prima consulenza legale, medica e finanziaria, allo sviluppo informatico, ai lavori di back office ed inserimento dati. Con un maggiore sviluppo della robotica, questo si potrebbe espandere anche a buona parte degli scenari industriali, ma certamente saranno i lavori di natura intellettuale ad essere colpiti per primi.

Si potrebbe pensare che questo cambiamento non sia così dissimile dalle precedenti rivoluzioni industriali. Tuttavia, ci sono dei vizi fondamentali in questo ragionamento, che lo rendono più una forma di pensiero positivo che una prospettiva credibile. In primo luogo, bisogna far presente che le precedenti rivoluzioni industriali hanno riguardato per lo più, da un punto di vista tecnico, il settore primario e secondario.

La nascita delle macchine, delle grandi automazioni, della robotica, non ha semplicemente liberato forza lavoro da mestieri per lo più improduttivi. Ha espanso drammaticamente la capacità produttiva nel mondo agricolo, estrattivo, minerario, ed in tutta la catena di trasformazione: e questo per altro in un mondo sul culmine di una rivoluzione sanitaria e culturale, pronto ad esplodere demograficamente per accogliere con nuova domanda una notevole crescita della produzione. Non solo, bisogna considerare che, laddove un macchinario può svolgere il lavoro di cento operai, esso deve essere comunque costruito, necessita di manutenzione e sostituzione, devono essere prodotti i componenti di ricambio, e via dicendo: ancora opere di natura secondaria, che richiedono mano d’opera. Inoltre deve essere progettato, programmato, distribuito, creando nuovi lavori specializzati.

Ciò ha dato origine ad un bilancio almeno in parziale equilibrio, specie se si considera che all’aumento della produzione nel settore secondario non poteva che conseguire un aumento di richiesta di operatori nel settore terziario; nella logistica, nei trasporti, nei servizi commerciali e di marketing, nei servizi contabili, finanziari e software, nella consulenza. Ed in effetti, l’occidente oggi vede la maggior parte della sua forza lavoro impiegata in questi settori.

Ora invito a riflettere se davvero questo scenario presenti parallelismi significativi con la cosiddetta rivoluzione AI, o se questa idea sia una chimera.

Ciò che la AI porterà è un drammatico efficientamento (dunque una drammatica riduzione della necessità di ore-uomo) del settore terziario. Ma possiamo davvero immaginare che questo espanda la capacità produttiva? A chi lavora nel settore terziario – ed io sono fra questi, giacché sono sviluppatore software – non piace sentirselo ricordare, ma il settore terziario è un settore economicamente parassitico, oppure simbiotico, se preferiamo usare un termine più gentile. Ciò che voglio dire, è che non produce nulla: non crea ricchezza da sé stesso; al più, amplifica la capacità del settore primario e secondario di generare ricchezza.

L’espansione della capacità produttiva nelle precedenti rivoluzioni industriali ha riguardato settori capaci di generare ricchezza aggiuntiva, e ciò ha consentito agli uomini di utilizzare più il nuovo eccesso di risorse economiche per bisogni per così dire superflui, quali maggiori beni di consumo, con un fenomeno di feedback positivo, che ha stimolato la crescita economica.

Produrre cento macchine in un mese anziché una, aumenta la ricchezza che una azienda produce: tuttavia registrare cento fatture in un minuto anziché dieci in una giornata, non aumenterà il volume del fatturato. Al più, potrebbe migliorare il margine di guadagno dell’imprenditore. Margini che però sono già scarsamente dipendenti dai costi gestionali. Nella maggior parte dei settori industriali, il margine del prodotto è assorbito quasi totalmente da costi incomprimibili, come materie prime e distribuzione, e ciò rende difficile da pensare che ad un efficentamento dei costi indiretti segua anche una massiccia riduzione dei prezzi, che potrebbe stimolare i consumi.


D’altro canto, non vi è nessun meccanismo automatico per cui i dipendenti liberati dalle loro precedenti mansioni possano produrre ricchezza in altra maniera, se non vi è una immediata domanda da coprire in altre posizioni.

La produzione di AI, purtroppo, non genera questa domanda. Un centinaio di operatori per una server farm ed una dozzina di sviluppatori possono coprire le necessità di AI per un milione di aziende. Questo non è lo scenario delle precedenti rivoluzioni industriali, dove per ogni operatore risparmiato era necessario un numero quasi pari di operatori per costruire, mantenere e distribuire i macchinari e gestire l’aumento di produzione che i macchinari consentivano di esprimere.

Per di più, oggi viviamo una profonda crisi culturale e, soprattutto, demografica. Le economie di tutto il mondo vedono crescite quasi nulle, soffocate da una smania regolatrice fuori controllo e un accentramento drammatico dei mezzi di produzione nelle mani di pochi. In un simile contesto, una riduzione di massa della domanda di lavoro nel settore terziario non può che essere devastante.

Se la intensità di questo fenomeno sarà della scala che è ragionevole immaginare, la AI spazzerà via milioni di posti di lavoro creando una crisi assistenziale senza precedenti. Lo scenario è allora del tutto imprevedibile, e non è assurdo immaginare una gigantesca e diffusa lotta per la sopravvivenza.

Distruzione della Ambizione Umana

Veniamo ora a scenari che ritengo più probabili, o addirittura quasi certi – direi in parte già avviati.
Questi scenari riguardano inoltre un aspetto più delicato del pericolo rappresentato dalla AI: un pericolo di natura spirituale e psicologica.

Come ho detto, la AI generativa è particolarmente insidiosa perché non sostituisce solo i lavori manuali, ma principalmente le mansioni intellettuali e le opere creative.

Qualcuno immagina che in qualche modo, una espansione della produzione ci sarà, nonostante quanto ho descritto precedentemente. In queste visioni, la AI conduce prima o poi ad una utopia dove il lavoro è eliminato, posto esclusivamente in carico alle macchine e l’uomo è libero di dilettarsi nelle arti, mantenuto gratuitamente da un sistema assistenziale. Io tuttavia, credo che questa visione manchi di fare i conti con la realtà.

La AI, prima ancora di svolgere varie tipologie di mansioni, è in grado di generare contenuti a partire da altri contenuti. È il campo della cosiddetta AI Generativa, diventata di dominio e utilizzo pubblico grazie ai modelli text-to-text di ChatGPT, ma la AI generativa non si limita al testo. Essa può già manipolare e creare persino immagini, video, suoni ed audio, talvolta quasi indistinguibili dalle loro controparti «reali».

Una intelligenza artificiale già oggi può realizzare opere di computer grafica, concept art, personaggi, ritratti in stile, caricature. Tutto di altissima qualità, e tutto in pochi secondi. La stessa cosa vale già per la musica, ed in non più di qualche anno, ciò sarà probabilmente possibile per contenuti audiovisivi di lunga durata.

Anche volendo ostinatamente sostenere una incolmabile differenza qualitativa tra l’opera della AI e l’opera umana, bisogna essere coscienti che nessuno sarà più disposto a sacrificarsi per anni di formazione e lavoro per produrre un capolavoro che una macchina può realizzare, in maniera appena percettibilmente inferiore, in pochi secondi.

La creatività umana ha bisogno, ci piaccia o meno, di un appagamento egoistico, per quanto minimo. Abbiamo bisogno di pensare che il nostro contributo sia importante; che sia bello, che abbia valore. Non è pensabile che qualcuno studi e lavori per anni per dipingere un “Giuramento degli Orazi” solo per nasconderlo in uno sgabuzzino lontano dal mondo, ma non è nemmeno pensabile che faccia lo stesso per collocarlo in mezzo a migliaia di opere qualitativamente ad esso comparabili, ma generate in pochi secondi e senza alcun sacrificio da una macchina.

L’intelligenza artificiale non è la strada per liberare dai limiti della convenienza economica l’arte, ma per ucciderla.

Deepfake e Manipolazione della Realtà

In aggiunta a tutto ciò, con il perfezionamento di queste tecnologie generative, il potenziale per la manipolazione della realtà è gigantesco. È ragionevole pensare che nel prossimo futuro vi sarà la possibilità di creare dal nulla video di eventi storici o di cronaca mai accaduti, e di cui sarà sempre più difficile dimostrare la falsità.

Tutti siamo abituati a sentir parlare di «fake news». Qualcuno è anche abituato a considerare i media mainstream come i principali promotori di questo genere di falsità. A prescindere dalle considerazioni di ciascuno sull’attuale stato di salute dei nostri media, non possiamo non riconoscere la difficoltà che si ha oggi a trovare una informazione oggettiva e trasparente.
Come peggiorerà questo, quando sarà possibile utilizzare strumenti AI per realizzare a tavolino un video perfettamente credibile di un politico che si prende gioco di un disabile, o commette qualche altra azione socialmente deplorevole?

Verificare il falso come tale diventerà quasi impossibile, anche per coloro che saranno vittima di simili attacchi. Già oggi molti giornali operano rilanciando senza alcuna verifica le notizie proposte prima da altre testate (addirittura acquistandone le fotografie). Cosa succederà quando vi saranno strumenti per generare video ed immagini capaci di diventare virali in pochissimo tempo e virtualmente impossibili da dimostrare false?

Un’area particolarmente disgustosa e preoccupante è quella dei deepfake, video generati con AI a partire da materiale reale, di natura pornografica. Già oggi sono circolanti nel deep web modelli AI in grado di generare nudi o addirittura filmati del genere a partire semplicemente dalla foto di una persona. Nell’ultimo anno, decine di personalità dello spettacolo sono state colpite da attacchi del genere: in alcuni casi questo può essere addirittura fonte di crisi affettive o danni gravissimi alla reputazione. E se un perito è ancora in grado di riconoscere la “mano” della AI, quanto ancora prima che ciò sia del tutto impossibile?

Può disgustarci quanto vogliamo, ma dobbiamo avere il coraggio di capire che siamo prossimi, e con prossimi non intendo più di qualche anno, ad un futuro in cui un bullo può prendere da Facebook la foto di una ragazzina, magari minorenne, e diffondere un video generato ad arte che la ritrae in un gang-bang, di cui la falsità è totalmente indimostrabile.

Mi scuso per il linguaggio volutamente irritante e grafico in questo passaggio. Ma se ne siete ripugnati, l’obbiettivo è raggiunto. Dobbiamo capire che è a repentaglio l’onore, la dignità, la serenità di tutti: non possiamo girarci dall’altra parte, o il prezzo da pagare sarà altissimo.

Dobbiamo davvero aspettare di leggere, su qualche giornale “Ragazzina si suicida dopo che un deepfake che la rappresenta diventa virale“? Possiamo ostinarci davvero a pensare che questa eventualità sia improbabile?

Distruzione della Relazione Umana

Non ho ancora finito di descrivere il pericolo rappresentato dalla intelligenza artificiale generativa. L’ultimo tema potrà sembrare il più bizzarro o il più alienante, ma credete: è il più concreto e vicino.

Ho menzionato in maniera molto succinta il tema della crisi culturale e demografica. Un tratto della società moderna, testimoniato incontrovertibilmente dalle statistiche sulla natalità, sulla stabilità matrimoniale e sui costumi relazionali in genere, è la drammatica difficoltà delle nuove generazioni a formare rapporti significativi e duraturi. Milioni di giovani vivono in solitudine, incapaci di formare relazioni se non tramite il filtro alienante dei social network; inevitabilmente, l’isolamento relazionale è causa anche di abbandono sociale.

L’hikikomori è la tendenza di giovani uomini e donne ad isolarsi completamente dalla società, rinunciando alle relazioni ed abbandonando persino il mondo del lavoro o dello studio. In paesi come il Giappone e la Corea, questo è diventato un vero dramma sociale, ma fenomeni del genere sono sempre più diffusi anche in occidente. In molti di questi casi, il bisogno affettivo è sostituito da pornografia facilmente accessibile, da qualsiasi device, con pochi click. Centinaia di milioni di uomini e donne, spesso senza ammetterlo o senza diagnosi, sono oggi dipendenti dalla pornografia.

Nonostante una parte della “scienza medica” neghi ostinatamente ed ideologicamente il problema, sempre più terapeuti e vittime del fenomeno denunciano le gravi conseguenze che questa epidemia ha sulla salute mentale delle persone, sul loro immaginario e sulle loro aspettative attorno alle relazioni affettive.

La AI però, essendo in grado di simulare perfettamente il linguaggio umano, offre una nuova e maggiore insidia. Tramite le tecnologie generative, infatti, è possibile simulare in maniera estremamente credibile un partner umano. Questo anche perché le nuove intelligenze artificiali sono in grado di estratte dalle conversazioni con un dato utente delle “memorie”, di fatti delle sintesi testuali di quanto discusso, da utilizzare nel contesto delle successive conversazioni. Questo permette di simulare una progressiva crescita di conoscenza e confidenza con la persona.

Se pensate che sia fantascienza, vi sbagliate. Già oggi esistono prodotti AI in grado di simulare una chat con un partner di cui è possibile scegliere nome, caratteristiche, personalità; persino l’aspetto. Questi prodotti mescolano infatti la generazione di testi e di immagini, e sono in grado persino di fornire all’utente fotografie o video del suo “partner virtuale”. Altri dei prodotti che si trovano in rete, mescolano invece la generazione di conversazioni tramite AI, con avatar e mondi tridimensionali personalizzabili. Talvolta, esplorabili addirittura con tecnologie tipo OculusRift, i visori per la realtà virtuale. E se dopo qualche mese il partner-personaggio “stufa”, se ne crea un altro, con un aspetto ed una personalità diverse: uno timido, l’altro assertivo, e così via.

Come potete immaginare, la maggior parte di questi software propone anche contenuti di natura erotica: il materiale grafico generato dal partner virtuale è potenzialmente anche pornografico, simulando persino una sorta di crescente intimità.

Non c’è da scherzare. Attorno a questi prodotti vi sono comunità di migliaia di individui soli che condividono le foto “del loro partner”, riferendosi ad esso con il linguaggio che colloquialmente utilizziamo per gli esseri umani. Sotto la nostra totale indifferenza, stanno nascendo veri e propri mostri di alienazione, degenerazione e solitudine, e non illudiamoci: è solo questione di tempo perché questi si trasformino in fenomeni di massa.

Se negli anni settanta a sfogliare abitualmente «Playboy» era “quello strano del gruppo”, oggi il 70% degli uomini ed il 40% delle donne consuma abitualmente pornografia. Il bubbone che ignoriamo oggi è la piaga che ci consumerà domani.

Ricordiamoci Cosa Siamo

Voglio tornare ora alla premessa di questo articolo. In apertura, ho spiegato come la AI non sia realmente umana, non possa pensare, non possa sentire emozioni, non sia cosciente. È, e non c’è motivo di pensare diversamente, un modello statistico. Tuttavia, dopo ad aver parlato a lungo del pericolo che essa costituisce, e di come può letteralmente devastare la realtà, credo che questa considerazione sia passata un po’ in secondo piano. Non è in grado di offrirci grande consolazione, e non dovrebbe farlo: il pericolo non va sottovalutato.

Tuttavia, è importante una considerazione. Alle volte, interagendo con ChatGPT o con altre Chat AI, specie se non conosciamo i fondamentali tecnici che compongono la tecnologia, possiamo davvero pensare di star parlando con un umano, o addirittura qualcosa di superiore. È in effetti evidente come ChatGPT dimostri funzionalmente una comprensione del testo ed una capacità sintetica nettamente superiore a quella della persona media. Il rischio profondo è che questo possa convincerci che, in fondo, anche noi non siamo che questo: nulla più di bio-macchine statistiche, che trasformano progressive esperienze in nuove sintesi.

Forse, la AI in fin dei conti è qualcosa di superiore a noi. Un nuovo essere, il prossimo passo evolutivo: l’uomo, così come lo intendiamo ora, prima o poi le dovrà lasciare semplicemente il posto. E se pensate che questo sia un ragionamento da folli, sappiate che già compaiono eticisti e filosofi che si interrogano sul se non dovremmo attribuire alle AI dei diritti paragonabili a quelli umani, in virtù delle capacità che dimostrano.

Del resto, la visione materialista dell’uomo è totalmente coerente con queste conclusioni. Come possiamo insistere di essere superiori a questa macchina, se le siamo funzionalmente inferiori, ed in fondo siamo anche noi una macchina, seppur biologica?

Ho visto una volta un bizzarro video in cui ad il celebre regista di animazione giapponese Hayao Miyazaki veniva mostrato un progetto per generare animazioni o bozze di animazione, tramite l’intelligenza artificiale. Miyazaki ne fu disgustato, e commentò: «noi uomini stiamo perdendo la fiducia in ciò che siamo». Credo che una riflessione poco matura sul tema porti proprio a questo.

In verità, infatti, noi cresciamo e diventiamo umani funzionali con una frazione infinitesimale dei dati di cui ha bisogno la AI per emularci credibilmente, e soprattutto con dati somministrati in maniera molto più priva di struttura dei dati che somministriamo alla AI. La nostra coscienza, il nostro spirito e la nostra ragione sono un miracolo, che non può e non deve essere sminuito in alcun modo dal fatto che un algoritmo di nostra invenzione sia in grado di copiarci in maniera credibile.

Ho deciso di tenere la fede fuori da questo articolo: tuttavia dobbiamo assolutamente avere il coraggio di reclamare che noi siamo creature su una classe diversa da ogni altra, e certamente dalle nostre invenzioni. Ma come abbiamo già visto, ciò non rende queste invenzioni meno pericolose: non possiamo adagiarci su gratuiti e banali ottimismi dicendoci che, comunque, “l’umanità ce la farà”.

Dobbiamo dunque pretendere con ogni mezzo, anche il più estremo, che la nostra natura non venga distrutta. Dobbiamo proteggere l’uomo, perché l’uomo ha un enorme valore, ad ogni costo: anche a costo di fermare definitivamente la AI.

Conclusione

Abbiamo compreso come l’AI non sia, in fondo, una vera intelligenza cosciente, quanto piuttosto una rete di calcoli statistici che, se adeguatamente addestrata, sa riprodurre le forme e i contenuti prodotti dall’uomo in modo sbalorditivo. Eppure, come abbiamo visto, questa sua “limitatezza” non la rende meno pericolosa. Dalle prospettive più apocalittiche, che la vedono sfuggire di mano e rivolgersi contro l’umanità in stile Terminator, al rischio immediato di una crisi del lavoro e di una devastante distruzione dell’ambizione creativa, l’AI ci coinvolge tutti. Ai mali più sottili, come la manipolazione della realtà (video e notizie artificiali indistinguibili dal reale), la perdita di relazioni autentiche e la progressiva sostituzione degli affetti con “partner virtuali”, si aggiunge un contesto sociale già profondamente disorientato, in cui nascono nuovi fenomeni di alienazione e dipendenza. La nostra capacità di distinguerci, di conservare identità e verità, rischia di scontrarsi con un’onda tecnologica la cui forza appare inarrestabile.

Cosa possiamo fare, di fronte a tutto questo, per evitare lo scenario in cui, nel migliore dei casi, l’umanità si riduce ad un “accessorio” superfluo della produzione, e nel peggiore si annienta del tutto? Basta la consapevolezza del pericolo, oppure servono azioni concrete per porre un freno allo sviluppo illimitato di queste macchine statistiche? Ha senso una regolamentazione che ricordi quella sull’energia nucleare, o dovremmo proporre soluzioni ancora più drastiche? Il gruppo Pause Giant AI Experiments sostiene sia necessario fermarsi, imporre una moratoria temporanea o parziale per capire dove vogliamo dirigere questa tecnologia e se desideriamo davvero proseguire su questa strada a ogni costo. C’è poi chi, come il ricercatore americano Eliezer Yudkowsky, non solo spinge per bloccare senza indugio la costruzione di intelligenze artificiali avanzate, ma arriva a prefigurare misure draconiane – persino “bombardare i datacenter” – come estremo deterrente. È un linguaggio duro, certo, ma forse un segnale di quanto egli ritenga la situazione più grave di quanto l’opinione pubblica immagini, perfino più pericolosa di quanto fu la corsa alla bomba atomica.

Il punto cruciale è che siamo di fronte a una rivoluzione senza precedenti, non paragonabile a quelle industriali del passato. Fermarsi, o perlomeno riflettere e agire con estrema cautela, non è più soltanto un’opzione auspicabile, ma una responsabilità collettiva. Tutti noi possiamo – e dovremmo – farci promotori di un dibattito aperto e privo di tabù, condividendo dubbi e preoccupazioni con chiunque sia disposto ad ascoltare. Se aspettiamo che il cambiamento bussi alle nostre porte, potrebbe essere troppo tardi. Abbiamo bisogno di sensibilizzare chi prende le decisioni, i legislatori, le grandi aziende tecnologiche, ma anche le nostre famiglie, i nostri amici, le nostre comunità. Senza una presa di coscienza collettiva, rischiamo di trovarci in uno scenario di passiva sottomissione al “fato tecnologico” che l’AI ci sta preparando.

E ora la rivelazione che spiazza: il paragrafo che avete appena letto, questa stessa conclusione, è stato generato da un modello di intelligenza artificiale. Ecco la domanda più sconcertante di tutte: se persino un testo come questo, che esprime timore, analisi critica e una certa tensione morale, può essere il prodotto di un algoritmo, quanto è davvero sottile il confine che ci separa dalla nostra stessa creazione?

E potremo mai esser certi che quella linea non si sia già dissolta?

Nota bene: Tutto il paragrafo Conclusione, inclusa la “rivelazione” e la frase finali ad effetto sono stati generati dalla A.I.

Riferimenti


Articoli Correlati

Condividi il Post!


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

ISCRIVITI ALLA NEWSLETTER
Riceverai una notifica quando pubblico un nuovo post.