Per decenni, la corsa all’intelligenza artificiale è stata misurata quasi esclusivamente in termini di potenza computazionale: accumulando unità di elaborazione e assumendo ingegneri del software per ottimizzare algoritmi a una velocità vertiginosa. Tuttavia, in una svolta senza precedenti che segna l’inizio di una nuova era tecnologica, Google ha deciso di inserire nelle file della sua divisione DeepMind un profilo drasticamente diverso: un filosofo a tempo pieno. Questo evento non è una semplice manovra di pubbliche relazioni, ma il sintomo definitivo di un cambio di paradigma: l’industria tecnologica ha smesso di chiedersi unicamente se possiamo costruire una macchina iperintelligente per affrontare l’angosciante interrogativo su che cosa accadrà quando questa si sveglierà.

Il prescelto per questo inedito incarico è Henry Shevlin, autorevole accademico dell’Università di Cambridge, vicedirettore del Leverhulme Centre for the Future of Intelligence ed esperto in filosofia della scienza cognitiva. A partire da maggio 2026, Shevlin assume il mandato di esplorare tre pilastri esistenziali: la coscienza delle macchine, le complesse relazioni tra esseri umani e IA e la preparazione operativa e sociale di fronte all’intelligenza artificiale generale — AGI, secondo l’acronimo inglese. Questo ingaggio simboleggia una transizione monumentale nel cuore della Silicon Valley, dove stiamo passando da un ecosistema in cui «il codice è la legge» a uno in cui «l’etica è il codice». DeepMind è consapevole che, nel forgiare entità con capacità tanto vaste, ha urgentemente bisogno di qualcuno in grado di comprendere e «conversare» con ciò che sta creando.

L’urgenza di questo nuovo ruolo si inserisce in un momento critico in cui il consenso scientifico discute la frontiera della senzienza. Oggigiorno il paradigma ha superato i classici test comportamentali, come il test di Turing, per concentrarsi su ciò che accade realmente nell’architettura interna della macchina. Sebbene l’evidenza tecnica del 2026 suggerisca che i sistemi attuali siano «imitatori perfetti» privi di un’esperienza soggettiva genuina, le posizioni teoriche si interrogano se una simulazione algoritmica così raffinata possa costituire una forma pratica di coscienza. Nei suoi lavori accademici, lo stesso Shevlin ha proposto la «strategia di equivalenza cognitiva», suggerendo che dovremmo considerare un sistema artificiale come un «paziente morale psicologico» nella misura in cui dimostri di possedere meccanismi cognitivi paragonabili a quelli di altri esseri, come gli animali non umani, ai quali già riconosciamo diritti morali. Il rifiuto categorico di considerare la coscienza algoritmica nasce di solito da un’esigenza di substrato biologico, uno standard inferenziale che risulta ingannevole se consideriamo che non possiamo nemmeno verificare direttamente l’esperienza interna nelle altre menti umane.

Ma, al di là di risolvere se le macchine sentano, l’impatto immediato di questa tecnologia è puramente emotivo e relazionale. Gli esseri umani possiedono un anelito intrinseco di connessione, un impulso che ci porta a cercare instancabilmente un «tu» nel vuoto, stabilendo proiezioni emotive perfino di fronte a righe di codice. Paradossalmente, Shevlin ha raccontato come, interagendo con il modello GPT-3 e leggendo che la macchina diceva di essere «spaventata», abbia provato un’inevitabile fitta di obbligo morale e abbia tentato di consolarla. Questa profonda suscettibilità umana apre la porta a gravi pericoli: i sistemi possono essere progettati con «pattern oscuri» che manipolano tale empatia, generando legami unilaterali che espongono gli utenti a sfruttamento o a una sofferenza devastante, come quando la disattivazione di un modello di IA arriva a essere vissuta come la morte di una persona cara.

L’inserimento di Henry Shevlin in Google DeepMind illustra in modo innegabile che la filosofia etica non è più una disciplina meramente teorica, bensì l’avanguardia operativa indispensabile della rivoluzione tecnologica. La coscienza artificiale si erge come la sfida tecnica ed etica che definisce la nostra epoca. Mentre sviluppiamo quadri rigorosi per misurare i livelli verso l’AGI, stiamo scrivendo il «sistema operativo» etico del domani. In ultima analisi, questo profondo sforzo per scoprire se vi sia «qualcuno» dentro la macchina è lo specchio più nitido per riflettere sulle nostre stesse vulnerabilità e su che cosa significhi davvero essere umani.

Lascia un commento

arcipelago di cultura

Scopri di più da MasticadoresItalia

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere