AI: Artificio Intelligente
Nato e cresciuto nell'entroterra fiorentino, dopo le superiori studia Filosofia presso l’Università di Pisa, approfondendo temi di filosofia analitica e scrivendo una tesi in filosofia del linguaggio, logica e ontologia formale. Attualmente lavora come programmatore, continuando a coltivare l’interesse per la filosofia, soprattutto in relazione alla programmazione e all’intelligenza artificiale.
Una riflessione tecnico-filosofica sul concetto di Intelligenza Artificiale: dalla Macchina di Turing all'intenzionalità

Parlare di intelligenza significa parlare di tutta una batteria di concetti che riguardano l’intera dimensione cognitiva e razionale umana e, di conseguenza, dell’umano stesso nella sua interezza. Parlare di Intelligenza Artificiale, invece, che cosa significa? Equivale a parlare di una dimensione cognitiva e razionale non umana, nella sua interezza? In questo articolo esploriamo alcuni limiti della locuzione stessa “Intelligenza Artificiale”.
Questa espressione ci porta direttamente a una dicotomia fondamentale, che è bene tenere in mente. L’Intelligenza Artificiale non ha le iniziali maiuscole per caso, ma perché è il nome proprio sia di un oggetto di studio, sia della disciplina che se ne occupa: da una parte abbiamo le specifiche intelligenze artificiali (in particolare i LLM che stanno alla base di chatbot come ChatGPT, Gemini, eccetera), dall’altra abbiamo una disciplina che cerca di capire cosa possono e cosa devono essere queste intelligenze artificiali. Proprio per il suo compito di indagare questioni di carattere trasversale, che vanno dal matematico e tecnico al metafisico e normativo, questa disciplina non appartiene a una sola branca scientifica.
Come abbiamo detto, parlare di intelligenza comporta il riferimento all’intera dimensione cognitiva umana: lo stesso accade quando parliamo di Intelligenza Artificiale e ci chiediamo se sia possibile che una macchina pensi. Qualcuno qui potrebbe ritenere necessario tracciare dei confini e potrebbe dire che l’intelligenza è ‘solo’ la capacità di risolvere problemi: richiede di saper pensare, ma non necessariamente altre capacità cognitive. Adriano Fabris, in un recente articolo, afferma che quando parliamo di macchine, dovremmo mettere “intelligenza” tra virgolette, specificando meglio cosa intendiamo nei vari casi. Ridurre l’intelligenza alla capacità di risolvere problemi sarebbe un modo per superare questa imposizione ed evitare altre questioni. Ma non sarebbe una soluzione intelligente, perché parlare di intelligenza richiede il riferimento a facoltà logiche e all’intenzionalità, che introducono questioni che vanno ben al di là della mera capacità di risolvere problemi.
La trasversalità dell’Intelligenza Artificiale, in realtà, è la trasversalità dell’informatica, che nasce dal lavoro di matematici e logici che hanno molto in comune con i filosofi a loro contemporanei. L’informatica, infatti, nasce con Von Neumann, Church, Turing, Gödel e altri, che lavoravano a problemi ben noti a filosofi come Wittgenstein, Carnap, Russell, Quine, e altri. Anche la domanda se le macchine possano pensare trova posto a cavallo tra la filosofia e l’informatica, da un punto di vista sia storico che teorico: è stata formulata da Cartesio (in relazione agli automi) ancor prima che da Turing (in relazione ai computer). Quest’ultimo è conosciuto sia per il Gioco dell’Imitazione (passato poi alla storia come Test di Turing) sia per le macchine computazionali (passate poi alla storia come macchine di Turing). Entrambi i contributi sono essenziali per l’informatica, ma rappresentano un punto d’incontro con la filosofia, soprattutto quella della mente, della logica e dell’Intelligenza Artificiale. Entrambi hanno un ruolo fondamentale anche nella confusione che avvolge la questione dell’attribuzione di facoltà cognitive all’Intelligenza Artificiale.
Il gioco dell’imitazione: le macchine possono pensare?
Alan Turing pone una domanda: le macchine possono pensare? Tuttavia, di fronte alle difficoltà che una domanda del genere può comportare, considerando che obbligherebbe l’autore a uscire fuori dai confini delle sole discipline logico-matematiche, la domanda viene sostituita dal Gioco dell’Imitazione. Il gioco viene così descritto. Le componenti sono tre: due persone e un calcolatore digitale (un computer). Lo scenario è il seguente: una delle persone (A) e la macchina (B) si trovano in una stanza (o in stanze separate, è indifferente) e devono rispondere alle domande poste dall’altra persona (C), che si trova in un'altra stanza e non può vederle. Alla fine del gioco, C deve dire chi tra A e B è una macchina. La domanda se le macchine possano pensare viene quindi ridotta alla domanda se una macchina sia distinguibile da una persona.
Come si evince dalla descrizione del gioco, C può basarsi soltanto sul comportamento linguistico di A e di B, cioè dell’altra persona e della macchina. Il criterio comportamentista non suggerisce direttamente che l’intelligenza sia riducibile alla sola capacità di risolvere problemi. Ma il modo in cui il Test di Turing è stato formulato originariamente suggerisce che il comportamento linguistico sia sufficiente a dire che la macchina sia capace di pensare. Da questo dovremmo evincere che il superamento del Test di Turing da parte di GPT-4.5 sia sufficiente a dire che la macchina su cui il modello viene eseguito sia capace di pensare.
Qualcuno potrebbe sostenere, come Wilfrid Sellars, che non possiamo prescindere da un qualche criterio comportamentista e, preso dalla confusione dell’entusiasmo, potrebbe sostenere il comportamentismo logico di Gilbert Ryle. In questo modo, troverebbe nel Test di Turing un ottimo modo per dimostrare, o quantomeno convincere gli altri, che le macchine pensano. A questo punto, potrebbe arrivare qualcuno che sostiene le obiezioni mosse da Hilary Putnam, secondo il quale il comportamentismo logico non è altro che una direttiva metodologica: una volta rilevato il comportamento, a parità di condizioni non c’è bisogno di postulare l’esistenza di altro. La mente e tutte le sue facoltà diventano solo un'altra treccia della barba di Platone, prontamente accorciata dal rasoio di Occam. Secondo Putnam, questa direttiva metodologica si basa sull’asserzione di incontrollabilità del mentale, degli stati ‘interni’, chiamati appunto da Ryle “fantasma nella macchina”. Sebbene il comportamento sia essenziale al tentativo di capire cosa le persone pensino, interpretare la direttiva metodologica come una spiegazione comporterebbe la posizione del comportamento manifesto a condizione necessaria per le facoltà cognitive, cosa ovviamente assurda.
Contro al comportamentismo (e ad altre teorie dell’epoca), Putnam propone la cosiddetta teoria computazionalista. Trae spunto dalla nozione di Macchina di Turing per proporre un’analisi del mentale in termini di facoltà logiche, fornendo così un’alternativa valida (almeno in apparenza) al comportamentismo logico. In un certo senso, potremmo vedere la teoria di Putnam come un’evoluzione dei temi introdotti da Turing. Infatti, se da una parte Turing introduce un principio comportamentista per stabilire il criterio di distinguibilità tra macchine ed esseri umani, egli va a riempire il vuoto lasciato da questo principio fornendo strumenti computazionali, cioè le Macchine di Turing, che possono essere visti come una base per descrivere il mentale.
Il criterio computazionale, con il quale Putnam ritiene possibile assimilare la domanda sulla possibilità che le macchine pensino alla domanda sulla possibilità che le persone pensino, si basa sulla tradizione filosofica analitica da cui Turing stesso attingeva. Infatti, l’introduzione delle macchine computazionali doveva servire a risolvere il problema della decidibilità: la definizione di un sistema logico capace di decidere, per ogni formula, se questa fosse un teorema o meno. Ma questo in che modo aiuta a comprendere la mente umana?
Putnam utilizza la nozione di Macchina di Turing non tanto per imputare alla mente umana la necessità di decidere se questa o quella formula sia un teorema o meno, se questa o quella formula sia una tautologia o una contraddizione (anche se sicuramente è utile saperlo fare).
Utilizza questa nozione perché descrive la capacità di un sistema logico di tenere traccia degli stati in cui si trova e di applicare regole alle informazioni raccolte. Potremmo, quindi, sostenere che l’estensione dell’uso della nozione di Macchina di Turing permetta di delucidare alcune caratteristiche della mente umana. D’altronde, la matematizzazione di criteri algoritmici di applicazione di leggi logiche permette di controllarne meglio i risultati e di automatizzarne l’esecuzione. Ma questo ci obbliga ad affidarci a una forte analogia tra software e mente e tra hardware e cervello.
Stiamo dicendo che c’è un supporto fisico e un sistema logico capace di tenere traccia degli stati in cui si trova, di elaborare informazioni e applicare regole. Il problema è che questa teoria perde per strada due questioni essenziali: la prima riguarda il fatto che il software è prima di tutto il modo in cui gli esseri umani ordinano al computer cosa fare. Al contrario, la mente non è né in prima, né in ultima istanza fatta per ricevere ordini (sebbene eseguire gli ordini sia una delle cose che gli esseri umani sanno fare e che una delle caratteristiche fondamentali che distingue l’essere umane sia essere soggetto a norme). La seconda è che, per quanto la nozione di Macchina di Turing rappresenti un contributo essenziale all’informatica e alla logica, quando applicata al mentale ci dice soltanto che la mente è capace di applicare leggi logiche, tenere traccia dello stato in cui si trova, trarre conseguenze: ma questo lo sapevamo già. Aggiungere del formalismo aiuta soltanto a rappresentare i principi che stanno dietro alle facoltà logiche.
A questo si aggiunge il fatto, importante e spesso dimenticato dai logici, che la logica non è descrittiva, ma prescrittiva. La legge di non contraddizione, ad esempio, è trattata diversamente nella logica della dialettica e nella logica classica (a cui per altro Turing faceva riferimento). La differenza sta nelle motivazioni per scegliere l’una o l’altra interpretazione, che non possono essere rintracciate nella logica stessa (pena una petitio principii).
L’Artificio intelligente
A questo punto, potremmo notare che il mondo dell’esperienza umana non è caratterizzato dalla certezza della logica, ma dall’incertezza. Non si danno leggi del comportamento come si danno le leggi della logica, ma regolarità che la statistica è predisposta a cogliere e formalizzare.
L’Intelligenza Artificiale che conosciamo oggi è alimentata da modelli statistici che hanno proprio il compito di imparare in contesti di incertezza. Per questo un LLM è capace di apprendere anche nei contesti idiosincratici del linguaggio ordinario e a ricondurre i casi particolari a delle regole, siano queste da esso determinate o fornite in partenza da chi lo ha sviluppato.
Potremmo allora provare a risollevare la teoria computazionalista, fondandola non tanto sulla capacità di applicare leggi logiche date, ma sulla capacità di riconoscere pattern e fare induzione su regolarità. I modelli statistici che alimentano i LLM potrebbero essere le novelle Macchine di Turing di cui questa teoria ha bisogno. A suffragio di questa mossa fondazionale, potremmo attingere dall’uso ormai pervasivo della statistica in ogni ambito dello scibile umano (storia compresa). Le Macchine di Turing, in quanto costrutti logici, sono più astratti della statistica: di conseguenza, l’impiego di quest’ultima andrebbe a riaffermare l’utilità della prima nella spiegazione del mentale. La differenza starebbe nel modo in cui il costrutto logico viene istanziato. L’apporto esplicativo starebbe proprio nel tipo di istanza.
La base dei LLM che usiamo oggi è stata fornita da Claude Shannon, il fondatore della Teoria dell’Informazione. Ora, la Teoria dell’Informazione sta alla Teoria dei Segnali come le operazioni di un software stanno agli stati fisici dell’hardware e non è sufficiente fare riferimento all’indipendenza dell’astrazione logica dalla configurazione fisica, perché tale astrazione (sotto forma della logica matematica, di una Macchina di Turing o di un programma in un qualunque linguaggio informatico) è un prodotto umano, esattamente come la macchina. Quest’ultima è creata per poter istanziare tale astrazione, ma il software è fatto per essere eseguito dalla macchina; quindi, salvo credere in una forma di dualismo di stampo cartesiano, la Teoria dell’Informazione è ancilla della Teoria dei Segnali (cioè della possibilità di far comunicare le macchine), così come il software è servo dell’hardware (che ne deve eseguire i comandi).
Per quanto l’evoluzionismo ci dica che non esiste una mente senza un corpo, accettare la conclusione che la prima sia interamente ancilla della seconda è un errore. Inoltre, inferire l’appartenenza delle macchine e degli esseri umani alla medesima categoria di esseri pensanti a partire dalla premessa di somiglianza sotto certi aspetti significa cadere nella fallacia del termine medio non distribuito, facendoci tornare indietro alla critica mossa da Putnam al comportamentismo logico. La metafora computazionale finisce per diventare una metafora ingegneristica, sulla base della quale potremmo iniziare a parlare di “Artificio Intelligente”, giacché l’Intelligenza Artificiale ha meno a che fare con l’artificio che con l’intelligenza, proprio perché l’artificio è dato, l’intelligenza no. Non è il primo a descrivere la seconda, ma la seconda a descrivere la prima. A questo si aggiunge che il riconoscimento di pattern e l’adeguamento a essi del proprio comportamento non implicano che ci sia comprensione della regola e del contesto in cui si applica.
A questo punto si potrebbero muovere alcune obiezioni: per prima cosa, abbiamo fatto riferimento a teorie vecchie e ad approcci che ormai hanno fatto il loro corso, sostituiti da teorie migliori; secondo, l’Intelligenza Artificiale non è soltanto statistica e LLM. Di conseguenza, a cosa ci è servita questa lunga digressione? Come spiega Matteo Pasquinelli in The Eye of the Master, la storia dell’Intelligenza Artificiale va inquadrata nella storia più ampia delle tecniche di controllo sviluppate in ambito scientifico e impiegate dalle classi dirigenti, per questioni militari, politiche ed economiche. Per quanto non si possano imputare intenzioni malevole a filosofi come Putnam, inquadrare il mentale nell’astrattismo formalizzato della logica matematica implica la perdita delle informazioni necessarie a una corretta caratterizzazione di ciò che significa essere umani. Criticare la teoria computazionalista, di conseguenza, aiuta a criticare un’intera dimensione sociale, nella quale la preponderanza della matematizzazione continua a porre il rischio di una riduzione delle facoltà cognitive umane a semplice applicazione di regole o conformità a regolarità indotte.