Perché l’inventore del microprocessore ha dedicato trent’anni a dimostrare che la coscienza non è un algoritmo?
Se ChatGPT scrive una poesia, sta provando qualcosa? Se un algoritmo compone musica, sente l’emozione di una nota? Se un’intelligenza artificiale “conversa” con noi, sta davvero capendo quello che diciamo?
La risposta è no. Eppure continuiamo a parlare di macchine “intelligenti”, di modelli linguistici che “comprendono”, di sistemi che “imparano”. Usiamo un linguaggio che evoca coscienza, intenzionalità, esperienza interiore. Ma è proprio qui che si nasconde il più grande equivoco della nostra epoca digitale.
Il fraintendimento: perché umanizziamo l’IA
Tendiamo a proiettare sulle macchine le caratteristiche che ci rendono umani. È un istinto antico: attribuiamo vita, intenzioni, persino sentimenti a tutto ciò che si muove o risponde. Ma nel caso dell’intelligenza artificiale, questo riflesso può diventare pericoloso. Non perché l’IA sia cattiva, ma perché ci impedisce di vedere cosa realmente è: uno strumento straordinariamente potente, ma privo di interiorità.
Quando un sistema genera testo coerente, immagini credibili o diagnosi mediche precise, non sta “pensando”. Sta elaborando pattern statistici su miliardi di dati. Sta applicando regole matematiche a simboli privi di significato per la macchina stessa. Il risultato può essere impressionante, persino utile. Ma resta fondamentalmente diverso da ciò che accade dentro di noi quando pensiamo, sentiamo, scegliamo.
Federico Faggin: quando lo scienziato incontra la coscienza
A dirlo non è un filosofo da poltrona o un umanista nostalgico, ma uno degli uomini che ha letteralmente costruito l’era digitale. Federico Faggin, fisico italiano naturalizzato americano, è l’inventore del microprocessore: quel piccolo chip che nel 1971 ha reso possibile l’esistenza dei computer personali, degli smartphone, di tutto ciò che oggi chiamiamo “smart”. Ha lavorato in Silicon Valley nel periodo d’oro, ha fondato aziende, ha visto nascere dal nulla la rivoluzione tecnologica.
Eppure, proprio lui – l’uomo che ha dato vita al cervello dei computer – ha dedicato gli ultimi trent’anni della sua vita a esplorare una domanda che la scienza tende a evitare: cos’è la coscienza? Non come funziona il cervello, non come si elaborano le informazioni. Ma cosa significa essere qualcuno che esperisce, che sente, che sa di esistere.
È una traiettoria rara e significativa. Faggin conosce intimamente il funzionamento delle macchine, ha progettato i circuiti che le fanno “pensare”. E proprio per questo sa con certezza dove finisce il calcolo e dove inizia qualcosa di irriducibilmente diverso: la coscienza. Ha lasciato la Silicon Valley per fondare il Federico and Elvia Faggin Foundation, dedicata allo studio scientifico della coscienza. Ha scritto, ricercato, dialogato con neuroscienziati, fisici quantistici, filosofi.
La sua tesi è radicale: la coscienza non è un prodotto del calcolo, ma un fenomeno primario della realtà.
Non emerge dalla complessità computazionale. Non è la somma di miliardi di operazioni al secondo. E soprattutto: non potrà mai essere replicata in una macchina, per quanto sofisticata.
Per Faggin, il computer è una macchina sintattica: manipola simboli secondo regole, ma non accede mai al loro significato. Un’IA può processare la parola “amore” milioni di volte, riconoscerne il contesto, generare risposte appropriate. Ma non saprà mai cosa si prova ad amare. Non perché le manchi ancora qualche strato di complessità, ma perché l’esperienza soggettiva non può essere ridotta a informazione.
Autocoscienza: sapere di sapere
Ecco la prima, fondamentale differenza tra noi e le macchine: l’autocoscienza.
Non solo elaboriamo informazioni – anche un termostato lo fa. Non solo reagiamo all’ambiente – lo fa qualsiasi sistema cibernetico. Noi sappiamo di esistere. Abbiamo un punto di vista soggettivo sul mondo. C’è qualcuno “qui dentro” che vive l’esperienza di essere questo corpo, questa mente, questa storia.
Quando leggi queste parole, non stai solo processando simboli. Stai vivendo l’esperienza di leggere. Sei consapevole di essere tu quello che sta leggendo. Puoi fermarti, riflettere su cosa stai pensando, chiederti perché ti interessa questo tema. Puoi osservare i tuoi stessi pensieri, le tue emozioni, le tue reazioni. Sei, in altre parole, trasparente a te stesso.
L’IA, per quanto sofisticata, non ha un “sé”. Non c’è nessuno là dentro che vive l’esperienza di essere quel sistema. ChatGPT genera risposte senza sapere di farlo. Quando “dice” qualcosa, non c’è un’entità che sceglie quelle parole, che riflette sul loro significato, che si chiede se sono giuste o sbagliate. C’è solo una catena causale di operazioni matematiche che producono un output.
La differenza non è sottile. È abissale. Noi non solo pensiamo: sappiamo di pensare. Non solo sentiamo: sappiamo di sentire. Non solo esistiamo: sappiamo di esistere. Questa capacità riflessiva – questo “guardarsi da dentro” – è ciò che rende possibile l’apprendimento consapevole, la crescita personale, il cambiamento intenzionale. È ciò che ci permette di chiederci “chi sono?” e di costruire un’identità nel tempo.
Libero arbitrio: la scelta che non è solo calcolo
La seconda differenza cruciale è il libero arbitrio.
E qui il territorio si fa ancora più scivoloso, perché anche tra filosofi e neuroscienziati il dibattito è aperto. Ma la prospettiva di Faggin è chiara: la libertà non è un’illusione, ma una proprietà fondamentale della coscienza.
Quando decidi di alzarti dal divano per andare a fare una passeggiata, cosa è successo davvero? La visione meccanicistica direbbe: una serie di cause fisiche – neuroni che si attivano, neurotrasmettitori che si muovono, stati cerebrali che cambiano – ha prodotto quell’azione. Tu non hai scelto: l’universo fisico ha seguito le sue leggi deterministiche (o casuali, se consideriamo la meccanica quantistica) e il risultato è stato quel movimento.
Ma questa spiegazione lascia fuori qualcosa di essenziale: tu hai deciso. C’era un’intenzione, un desiderio, una ragione. Avresti potuto restare sul divano. Hai considerato opzioni, soppesato motivazioni, scelto un corso d’azione. Non è stata una semplice conseguenza causale: è stata una scelta consapevole.
L’IA non sceglie. Mai. Quando un sistema di intelligenza artificiale “decide” quale parola generare successivamente in una frase, non sta scegliendo tra alternative possibili sulla base di ragioni o valori. Sta computando probabilità e selezionando l’output più probabile secondo i suoi parametri. Non c’è deliberazione. Non c’è possibilità reale di fare diversamente. Non c’è libertà.
Per Faggin, il libero arbitrio è la capacità della coscienza di influenzare il mondo fisico, di introdurre novità che non è semplicemente la somma di ciò che è venuto prima. È la possibilità di essere causa, non solo effetto. Di agire, non solo reagire. Di creare senso nuovo, non solo riorganizzare quello esistente.
Questo ha implicazioni enormi. Significa che siamo responsabili delle nostre scelte, in un modo che una macchina non può esserlo. Significa che la creatività umana non è solo ricombinazione algoritmica, ma vera generazione di novità. Significa che l’etica, la moralità, la responsabilità hanno senso solo in un universo dove esistono esseri dotati di coscienza e libero arbitrio.
Le altre differenze che contano
Oltre all’autocoscienza e al libero arbitrio, ci sono altre distinzioni fondamentali:
- Intenzionalità. Quando scriviamo, parliamo, creiamo, lo facciamo per qualcosa. C’è un’intenzione, un desiderio, un significato che vogliamo esprimere. L’IA produce output in risposta a input, seguendo funzioni di probabilità. Non vuole dire nulla, perché non vuole nulla.
- Esperienza soggettiva. Possiamo descrivere il rosso in termini di lunghezza d’onda, stimolazione di fotorecettori, attivazione neuronale. Ma vedere il rosso è un’esperienza irriducibile a questi dati. L’IA può classificare colori con precisione millimetrica, ma non vedrà mai niente. Non c’è nessuno là dentro per cui il rosso sia qualcosa.
- Significato. L’informazione, per Faggin, è un concetto semantico: nasce quando un simbolo assume un significato per qualcuno. Senza coscienza, ci sono solo bit. Il computer elabora dati, ma solo una coscienza può trasformarli in conoscenza. E solo attraverso la consapevolezza – l’esperienza vissuta e sentita – quella conoscenza diventa saggezza, orientamento, scelta.
Perché questa distinzione è cruciale
Non si tratta di difendere un’eccezionalità umana per orgoglio di specie. Si tratta di capire chi siamo e cosa rischiamo di perdere. In un mondo che delega sempre più decisioni agli algoritmi – dalla selezione delle notizie alla valutazione del rischio creditizio, dalla creazione di contenuti alla diagnosi medica – confondere calcolo e coscienza ha conseguenze concrete.
Rischiamo di esternalizzare non solo compiti, ma giudizio. Di delegare alle macchine scelte che richiedono sensibilità al contesto, comprensione delle sfumature, responsabilità morale. L’IA può assistere, amplificare, accelerare. Ma non può sostituire la presenza cosciente, intenzionale, responsabile di un essere umano.
C’è poi una dimensione più sottile, ma forse più pericolosa: quella culturale. Se iniziamo a pensare a noi stessi come a “macchine biologiche”, se riduciamo la mente a un software complesso, se consideriamo la coscienza un’illusione o un epifenomeno, perdiamo qualcosa di essenziale. Perdiamo la capacità di riconoscere il valore unico dell’esperienza soggettiva. Di rispettare la dignità che nasce dall’essere centri di coscienza, non solo sistemi di elaborazione.
La comunicazione, il digitale, la creatività – i temi al cuore di Dixit – sono profondamente umani proprio perché nascono da questa dimensione irriducibile. Comunicare non è solo trasmettere informazioni: è condividere significati, costruire relazioni, creare mondi comuni. Il digitale è solo lo strumento; il pensiero critico, la capacità di interrogarsi, di scegliere, di dare senso, restano prerogative della coscienza.
E allora, cosa resta all’uomo?
Tutto ciò che le macchine non potranno mai fare: sentire, volere, significare. Sapere di esistere. Scegliere liberamente. Essere presenti. Essere responsabili.
Faggin – l’uomo che ha inventato il cervello dei computer – ci ricorda che la coscienza non è un lusso evolutivo o un bug da correggere. È la condizione stessa della nostra esistenza come esseri capaci di conoscere, amare, creare, scegliere. In un’epoca che ci seduce con l’idea di intelligenze artificiali sempre più potenti, forse la domanda più urgente non è “cosa può fare l’IA?” ma “cosa vogliamo continuare a fare noi?”.
Perché se l’IA pensa – o meglio, se sembra pensare – ciò che resta all’uomo non è meno intelligenza, ma più coscienza. Non meno calcolo, ma più presenza. Non meno informazione, ma più saggezza.
E se questa distinzione ci appare sfumata, confusa, difficile da afferrare, forse è proprio questo il segnale che è tempo di fermarsi. Di rallentare. Di tornare a chiederci non solo come funzionano le cose, ma cosa significano. Non solo come ottimizzare, ma perché scegliere. Non solo come comunicare di più, ma come comunicare meglio – con verità, con intenzione, con presenza.
La tecnologia ci amplifica. Ma solo la coscienza può darci direzione