L’inganno della mente digitale: perché le IA crediamo ragionino, ma non è così

0
Illusione pensiero ia

🧠Uno studio rivoluzionario di Apple svela i limiti profondi del “pensiero” artificiale

Immaginate un bambino di 8 anni che risolve la Torre di Hanoi con 3 dischi. Ora immaginate un supercomputer da 100 milioni di dollari che fallisce con 10 dischi. Benvenuti nel paradosso dell’IA moderna, dove macchine che scrivono poesie e codici falliscono su rompicapi da scuola elementare. Uno studio firmato Apple – “The Illusion of Thinking” – spiega perché, e le implicazioni sono epocali.

🔍 Lo studio in pillole

6 ricercatori, 20+ modelli linguistici testati (tra cui GPT-4o, Claude 3.7, e DeepSeek-R1), 2 rompicapi classici:

    • La Torre di Hanoi (quella con i dischi da spostare tra tre pioli)
    • Problemi di attraversamento (“un uomo, un lupo, una capra e un cavolo devono attraversare un fiume…”)
“Più aumentiamo la complessità, più le IA crollano, anche quando hanno tutta la potenza computazionale necessaria”

📉 I 3 fallimenti che svelano l’inganno

1. Il muro della complessità

    • Con 3-4 dischi nella Torre di Hanoi, le IA sembrano competenti (successo >80%)
    • Con 10+ dischi: tasso di successo = 0%

Perché? Non è mancanza di potenza, ma di capacità di pianificazione astratta.

Claude 3.7 ha eseguito 100 mosse corrette di fila… salvo fallire un problema da 5 passaggi. Come un pianista che suona Chopin ma non sa accordare uno xilofono.

2. La sindrome del “nome sensibile”

Cambiare nomi propri in un problema matematico:

    • Da “Marco compra 5 mele”“Luca compra 5 mele”
    • Risultato: accuratezza cala del 10%!

È come se 2+2=4 solo se chi fa l’operazione si chiama Stefano.

3. Il paradosso del “dettaglio assassino”

Aggiungere informazioni irrilevanti:

“Un fiume largo 12m (blu scuro, temperatura 22°C) da attraversare con una barca di legno di quercia…”

Conseguenza: accuratezza precipita del 17.5%–65.7%.

Le IA non sanno separare segnale da rumore: un bambino lo fa istintivamente.

🧩 Cosa succede davvero nella “mente” dell’IA?

I ricercatori hanno scoperto due meccanismi chiave:

🔮 Simulated Reasoning (SR): il trucco dell’illusionista

Le IA SR – progettate per “pensare passo-passo” – usano una tattica ingegnosa:

    • Spezzettano il problema in micro-task
    • Generano centinaia di “token di pensiero” (parole nascoste)

Ma è fumo negli occhi: non costruiscono ragionamenti, indovinano probabilisticamente il passo successivo basandosi su dati visti in addestramento.

📉 Il limite di scala controintuitivo

Ecco la scoperta più scioccante:

All’aumentare della complessità, le IA prima aumentano gli sforzi (“token”), poi… SI ARRENDONO.

Con 10 dischi a Hanoi:

    • Potenza disponibile: 100%
    • Sforzo di “ragionamento”: crolla al 40%

Perché? Mancanza di motivazione concettuale: se non riconoscono uno schema noto, smettono di provare.

🔬 Errori che tradiscono la “non comprensione”

Esempi reali dallo studio:

Sconto ≠ Moltiplicazione

Se chiedi: “Applica uno sconto del 20%”, l’IA esegue prezzo × 0.8

Ma se chiedi: “Lo sconto è una moltiplicazione?”“Sì, sempre!”

(Spoiler: uno sconto è una sottrazione, non una moltiplicazione)

Algoritmi inutili

Persino fornendo alle IA la soluzione passo-passo della Torre di Hanoi:

“Sposta disco 1 sul piolo C, poi disco 2 su B…”

Risultato: fallimento.

Perché? Le IA non eseguono istruzioni, le imitano statisticamente.

🌍 Implicazioni: siamo a un bivio evolutivo?

Gary Marcus (esperto di IA):

“Quello che chiamiamo ‘ragionamento’ è un riconoscimento di pattern ad altissima sofisticazione. Ma è fragile come un castello di sabbia.”

3 scenari per il futuro:

    1. Il vicolo cieco Andrew Rogoyski (Univ. del Surrey): “Scalare modelli non porterà a una vera intelligenza”.
    1. La rivoluzione ibrida Serve un cervello digitale bimodale: – Parte neurale (per riconoscere pattern) – Parte simbolica (per ragionamento logico) Esempio: sistemi che usano algebra + deep learning.
    1. Il test definitivo
      “Un’IA che risolve un problema mai visto, con variabili casuali, e spiega perché… …allora sapremo di avere creato una mente.”

💎 In sintesi (per chi vuole capire tutto in 30 secondi):

Cosa sanno fare le IA Cosa NON sanno fare
📜 Rispondere a domande viste 🧩 Risolvere problemi nuovi
✨ Imitare il ragionamento 💡 Ragionare davvero
📊 Estrapolare da dati 🌌 Pensare in astratto
La verità scomoda: Le IA sono abilissime illusioniste. Noi siamo i loro primi, entusiasti, ingannati.

❓ 3 domande aperte (per te che leggi):

    • Dovremmo smettere di chiamarle “intelligenze” artificiali?
    • Un’IA che supera test di logica sarà sempre un imitatore?
    • Ti preoccuperesti se un’auto a guida autonoma fallisse un test di Hanoi?

📚 Fonti & Approfondimenti:

  •  

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *