L’inganno della mente digitale: perché le IA crediamo ragionino, ma non è così

🧠Uno studio rivoluzionario di Apple svela i limiti profondi del “pensiero” artificiale
Immaginate un bambino di 8 anni che risolve la Torre di Hanoi con 3 dischi. Ora immaginate un supercomputer da 100 milioni di dollari che fallisce con 10 dischi. Benvenuti nel paradosso dell’IA moderna, dove macchine che scrivono poesie e codici falliscono su rompicapi da scuola elementare. Uno studio firmato Apple – “The Illusion of Thinking” – spiega perché, e le implicazioni sono epocali.
🔍 Lo studio in pillole
6 ricercatori, 20+ modelli linguistici testati (tra cui GPT-4o, Claude 3.7, e DeepSeek-R1), 2 rompicapi classici:
-
- La Torre di Hanoi (quella con i dischi da spostare tra tre pioli)
-
- Problemi di attraversamento (“un uomo, un lupo, una capra e un cavolo devono attraversare un fiume…”)
“Più aumentiamo la complessità, più le IA crollano, anche quando hanno tutta la potenza computazionale necessaria”
📉 I 3 fallimenti che svelano l’inganno
1. Il muro della complessità
-
- Con 3-4 dischi nella Torre di Hanoi, le IA sembrano competenti (successo >80%)
-
- Con 10+ dischi: tasso di successo = 0% ❌
Perché? Non è mancanza di potenza, ma di capacità di pianificazione astratta.
Claude 3.7 ha eseguito 100 mosse corrette di fila… salvo fallire un problema da 5 passaggi. Come un pianista che suona Chopin ma non sa accordare uno xilofono.
2. La sindrome del “nome sensibile”
Cambiare nomi propri in un problema matematico:
-
- Da “Marco compra 5 mele” → “Luca compra 5 mele”
-
- Risultato: accuratezza cala del 10%!
È come se 2+2=4 solo se chi fa l’operazione si chiama Stefano.
3. Il paradosso del “dettaglio assassino”
Aggiungere informazioni irrilevanti:
“Un fiume largo 12m (blu scuro, temperatura 22°C) da attraversare con una barca di legno di quercia…”
Conseguenza: accuratezza precipita del 17.5%–65.7%.
Le IA non sanno separare segnale da rumore: un bambino lo fa istintivamente.
🧩 Cosa succede davvero nella “mente” dell’IA?
I ricercatori hanno scoperto due meccanismi chiave:
🔮 Simulated Reasoning (SR): il trucco dell’illusionista
Le IA SR – progettate per “pensare passo-passo” – usano una tattica ingegnosa:
-
- Spezzettano il problema in micro-task
-
- Generano centinaia di “token di pensiero” (parole nascoste)
Ma è fumo negli occhi: non costruiscono ragionamenti, indovinano probabilisticamente il passo successivo basandosi su dati visti in addestramento.
📉 Il limite di scala controintuitivo
Ecco la scoperta più scioccante:
All’aumentare della complessità, le IA prima aumentano gli sforzi (“token”), poi… SI ARRENDONO.
Con 10 dischi a Hanoi:
-
- Potenza disponibile: 100%
-
- Sforzo di “ragionamento”: crolla al 40%
Perché? Mancanza di motivazione concettuale: se non riconoscono uno schema noto, smettono di provare.
🔬 Errori che tradiscono la “non comprensione”
Esempi reali dallo studio:
Sconto ≠ Moltiplicazione
Se chiedi: “Applica uno sconto del 20%”, l’IA esegue prezzo × 0.8
Ma se chiedi: “Lo sconto è una moltiplicazione?” → “Sì, sempre!” ❗
(Spoiler: uno sconto è una sottrazione, non una moltiplicazione)
Algoritmi inutili
Persino fornendo alle IA la soluzione passo-passo della Torre di Hanoi:
“Sposta disco 1 sul piolo C, poi disco 2 su B…”
Risultato: fallimento.
Perché? Le IA non eseguono istruzioni, le imitano statisticamente.
🌍 Implicazioni: siamo a un bivio evolutivo?
Gary Marcus (esperto di IA):
“Quello che chiamiamo ‘ragionamento’ è un riconoscimento di pattern ad altissima sofisticazione. Ma è fragile come un castello di sabbia.”
3 scenari per il futuro:
-
- Il vicolo cieco Andrew Rogoyski (Univ. del Surrey): “Scalare modelli non porterà a una vera intelligenza”.
-
- La rivoluzione ibrida Serve un cervello digitale bimodale: – Parte neurale (per riconoscere pattern) – Parte simbolica (per ragionamento logico) Esempio: sistemi che usano algebra + deep learning.
-
- Il test definitivo
“Un’IA che risolve un problema mai visto, con variabili casuali, e spiega perché… …allora sapremo di avere creato una mente.”
- Il test definitivo
💎 In sintesi (per chi vuole capire tutto in 30 secondi):
Cosa sanno fare le IA | Cosa NON sanno fare |
📜 Rispondere a domande viste | 🧩 Risolvere problemi nuovi |
✨ Imitare il ragionamento | 💡 Ragionare davvero |
📊 Estrapolare da dati | 🌌 Pensare in astratto |
La verità scomoda: Le IA sono abilissime illusioniste. Noi siamo i loro primi, entusiasti, ingannati.
❓ 3 domande aperte (per te che leggi):
-
- Dovremmo smettere di chiamarle “intelligenze” artificiali?
-
- Un’IA che supera test di logica sarà sempre un imitatore?
-
- Ti preoccuperesti se un’auto a guida autonoma fallisse un test di Hanoi?