
L’uso di ChatGPT è diventato sempre più comune nel 2025, con un numero crescente di utenti che lo integrano nelle loro attività quotidiane. Ogni giorno emergono nuovi LLM (Large Language Model) dotati di tecnologie di Intelligenza Artificiale sempre più sofisticate. Tuttavia, è fondamentale ricordare che l’Intelligenza Artificiale si distingue dall’intelligenza umana, in quanto non possiede la capacità di ragionare autonomamente, ma si limita a imitare il nostro modo di pensare.
L’intelligenza artificiale tra imitazione e ragionamento
L’Intelligenza Artificiale è definita come una tecnologia che cerca di conferire alle macchine caratteristiche tipicamente umane, come la capacità di ragionare. Questa definizione porta spesso a malintesi, poiché molti credono erroneamente che tali sistemi possano pensare in modo indipendente o provare emozioni. In realtà, ciò che avviene è un processo di imitazione del nostro ragionamento attraverso algoritmi avanzati.
Quando si discute di ragionamento nell’Intelligenza Artificiale, è importante considerare che si tratta di software che utilizza tecnologie come il Machine Learning per replicare i meccanismi del pensiero umano. Gli LLM, come ChatGPT, sono progettati per elaborare e generare testo basandosi su dati preesistenti. Questi modelli linguistici di grandi dimensioni vengono addestrati per manipolare i testi forniti, cercando di rispondere alle domande nel modo più coerente possibile. Tuttavia, questa procedura può portare a errori, noti come “allucinazioni”, in cui il modello produce risposte imprecise o fuorvianti.
Il caso delle “r” in ramarro: un errore comune di ChatGPT
Per illustrare il concetto, consideriamo un esempio pratico con ChatGPT 4o, la versione attualmente disponibile senza la funzione di reasoning. Se poniamo la domanda: “Quante r ci sono in ramarro e in che posizione si trovano nella parola?”, è probabile che la risposta sia errata. Questo accade perché il modello non è in grado di ragionare come un essere umano, e quindi non può fornire una risposta precisa senza il supporto di capacità di ragionamento avanzate.
Nelle nostre prove, ChatGPT ha identificato correttamente il numero di “r”, ma ha commesso un errore nel posizionamento. La stessa situazione si verifica anche con DeepSeek, un altro modello di linguaggio, quando non si attiva l’opzione di reasoning.
Per ottenere risposte più accurate da entrambi i modelli, è necessario abilitare la funzione di reasoning, disponibile nelle versioni avanzate come ChatGPT 01 e DeepSeek R1. Utilizzando una metodologia chiamata Chain of Thought, questi modelli possono affrontare compiti complessi in modo più efficace.
Perché le ai commettono errori e il ruolo della chain of thought
Per comprendere il motivo degli errori senza l’ausilio del reasoning, è importante sapere che gli LLM non “pensano” nel senso umano del termine. Questi sistemi elaborano informazioni in porzioni di testo chiamate token. Possiamo immaginare i token come unità di misura del testo, che possono essere più o meno dettagliate a seconda delle impostazioni dei programmatori. Questo approccio rende difficile per i modelli contare esattamente le lettere in una parola, come nel caso di “ramarro”.
Attivando il modello di reasoning, il sistema utilizza la Chain of Thought, che permette di scomporre le domande in sottoblocchi più gestibili. Questo approccio consente al modello di analizzare il testo in modo più approfondito, identificando dettagli che potrebbero sfuggire in un’analisi globale. Per esempio, nel caso del conteggio delle lettere, il modello può riconoscere che la richiesta richiede un metodo di calcolo specifico, piuttosto che un semplice ragionamento.
Tuttavia, anche i modelli di reasoning non sono infallibili. Un esempio di questo è l’indovinello della lampadina e dei tre interruttori, dove un sistema come DeepSeek R1 è in grado di fornire la risposta corretta a una domanda complessa. Ma se semplifichiamo l’indovinello, affermando che la stanza è di vetro, un essere umano risponderebbe immediatamente che può vedere quale interruttore accende la lampadina, mentre DeepSeek R1 continuerà a cercare la risposta nel suo database, senza cogliere il vantaggio della trasparenza del vetro.
Questa situazione evidenzia come i modelli di AI, anche quelli più avanzati, operano in base a logiche probabilistiche piuttosto che a un vero ragionamento, dimostrando così i limiti attuali della tecnologia.