Alberto Pian

INTELLIGENZA ARTIFICIALE. LA RICERCA DI APPLE CHE CONFERMA SCIENTIFICAMENTE CIÒ CHE ABBIAMO SEMPRE DETTO, E PUBBLICATO IN “IA IL TUO MINDSET”.

Una ricerca scientifica maturata nei laboratori Apple che ha come oggetto l’Intelligenza Artificiale, ribalta completamente approcci diffusi perfino nel campo degli LRM (Large Reasoning Model, che sono modelli di linguaggio progettati per applicare ragionamenti profondi e complessi), e conferma le analisi e le intuizioni che con Teresa Potenza abbiamo espresso nel libro “IA il tuo Mindset per giornalisti e narratori consapevoli” (2025). Ragionamenti e intuizioni che erano alla base anche dell’eBook “Storia d’amore tra un ferro da stiro e uno pneumatico“, che proponeva il metodo per la padronanza della IA in ambito educativo (2024). Perciò vediamo in che modo questa ricerca conferma i punti chiave che abbiamo più volte sollevato

FONTI E INFORMAZIONI

Documento: https://machinelearning.apple.com/research/illusion-of-thinking, nella raccolta: Machine Learning Research a cura di Apple

Apple ha creato questo sito per mostrare al pubblico e alla comunità scientifica i suoi progressi nel campo dell’intelligenza artificiale e del machine learning. Il portale raccoglie ricerche, pubblicazioni, strumenti e opportunità di collaborazione. L’obiettivo è di promuovere trasparenza, attrarre talenti e condividere innovazioni tecnologiche.

In questo ambito nel giugno 2025 è stato pubblicato il documento: “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity” https://machinelearning.apple.com/research/illusion-of-thinking, “L’illusione del pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento attraverso la lente della complessità del problema.” Authori: Parshin Shojaee†, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio, Mehrdad Farajtabar

Trasmissione talk creata dalla IA che mette a confronto la ricerca di Apple con il nostro libro.

“I modelli attuali riescono a imitare il ragionamento, ma non a sostituirlo”


Questa è una delle conclusioni alle quali giunge la ricerca di Apple.

Dal canto nostro nel libro “IA il tuo Mindset per giornalisti e narratori consapevoli”, Teresa Potenza, Alberto Pian, 2025. Abbiamo mostrato che l’IA, per quanto sofisticata, non possiede una vera intelligenza o capacità di pensiero spontaneo.

Questo sottolinea che l’IA non “pensa” nel senso umano del termine, ma esegue un sofisticato “pattern matching” basato su dati. Come scrivevamo nel libro, è come se i collegamenti che forniscono gli apparenti ragionamenti, siano predefiniti da schemi formati da pesi e contrappesi variabili.

Paesaggio toscano.

Come abbiamo scritto: “L’IA non decide spontaneamente di creare. Opera sempre in risposta a un input o a una richiesta esterna”. E ancora: “Non può dimenticare, procedere leggera lasciando che il suo inconscio stabilisca i legami e i pensieri perché non ha un inconscio”. Fondamentalmente, “l’IA generativa crea contenuti attraverso un metodo statistico e di pesi distribuiti”. Non “impara il linguaggio umano e il suo autonomo impiego semantico”, né la sua creazione “ha nulla a che fare con lo sviluppo cognitivo, con il procedere del pensiero sul piano simbolico e dell’astrazione, con la conquista di nuove tappe dell’intelligenza”.

La ricerca di Apple conferma scientificamente questa visione. Il titolo stesso, “L’illusione del pensiero”, non è forse eloquente?

Il documento evidenzia che, nonostante i “Large Reasoning Models (LRM)” generino “processi di pensiero dettagliati prima di fornire le risposte”, le loro “capacità fondamentali, le proprietà di scalabilità e i limiti non sono abbastanza compresi”.

Questi modelli “non riescono a sviluppare capacità di ragionamento generalizzabili oltre certe soglie di complessità”. Sorprendentemente, anche fornendo ai modelli l’algoritmo esplicito per risolvere un puzzle come la Torre di Hanoi, “le prestazioni non migliorano e il collasso si verifica all’incirca nello stesso punto”, suggerendo così che esistano precisi “limiti da parte dei modelli di ragionamento nella verifica e nel seguire i passi logici per risolvere un problema”.

I ricercatori, infatti scrivono:

"Anche fornendo l’algoritmo corretto, i modelli non riescono a eseguirlo con successo. In alcuni puzzle i modelli resistono a lungo prima di sbagliare (es. Hanoi), in altri falliscono subito (es. River Crossing), suggerendo che la familiarità con il compito gioca un ruolo cruciale. Questi risultati sfidano l’ottimismo attuale sulla reale capacità di ragionamento dei modelli linguistici di nuova generazione."

Valutazione e padronanza (comprensione profonda)

Abbiamo sempre sostenuto che “l’IA non può valutare criticamente il contenuto che produce in termini di qualità, rilevanza oppure su base emotiva o basandosi su sentimenti e insight”. Inoltre: “Non ha una comprensione, in termini di padronanza (Jerome Bruner), di ciò che sta creando” e “non può creare connessioni basate sull’esperienza di vita e… non può sfidare le convenzioni”.

I risultati della ricerca scientifica mostrano proprio che i modelli "spesso trovano la soluzione corretta all'inizio del loro pensiero ma poi continuano a esplorare soluzioni errate", rivelando non solo una chiara inefficienza ma anche una mancanza di giudizio critico sul proprio processo. Detto in altri termini: non esiste metacognizione.

A esempio esiste una sorta di “limite di scalabilità controintuitivo: il loro sforzo di ragionamento aumenta con la complessità del problema fino a un certo punto, poi diminuisce nonostante abbiano un budget di token adeguato” (cioè anche se dispongano di informazioni e un sistema di pesi e contrappesi sufficiente di centinaia di miliardi di token).
In modo ancora più chiaro i ricercatori stabiliscono questo:

"Un dato particolarmente preoccupante è che gli LRM riducono lo sforzo di ragionamento proprio quando i problemi diventano più difficili – un chiaro segnale di limite strutturale nella scalabilità del ragionamento."

Perché capita questo?

Come abbiamo sempre spiegato nessun modello di IA può superare i limiti del suo stesso addestramento, che poggia le sue radici essenzialmente negli stereotipi della cultura di massa, di fronte ai quali non può esercitare un pensiero critico indipendente. E ora questa ricerca conferma le nostre idee sul piano scientifico, là dove si parla di “familiarità del modello con il tipo di problema”, cioè del processo di formazione della IA:

"Questi risultati mostrano che le difficoltà dei modelli non dipendono solo dalla lunghezza o complessità, ma anche dalla familiarità del modello con il tipo di problema e dalla capacità di eseguire istruzioni passo-passo." cioè dal fatto che abbiamo o meno acquisito le conoscenze necessarie in sede di formazione.

Al contrario, si verificano spesso fenomeni di overthinking: “nei problemi semplici (continuano a ragionare dopo aver trovato la risposta)”.

Paesaggio toscano.

Un altro elemento estremamente significativo è che quando falliscono questi modelli non hanno una concezione coerente del fallimento, degli errori e i loro processi di ragionamento diventano ancora “più instabili e inclini a prestazioni incoerenti”.

Che cosa significa?

Semplicemente che non possono esercitare una padronanza autentica del problema che stanno cercando di risolvere! Non possono superare i limiti della loro stessa formazione, in ultima analisi i limiti ideologici e morali della cultura dominante, cosa che, invece, una mente umana può fare.

Contaminazione di dati e bias

A questo proposito nel nostro libro abbiamo spiegato con precisione il tema dell’addestramento dell’IA, mostrando, da fonti autorevoli e comprovate, che “le fonti addestramento della IA contemplano anche siti web inaffidabili, pornografici, e persino di fake news”. Abbiamo citato l’esempio di Scribd, dove “non esiste alcun controllo sulla validità dei contenti”, chiunque può caricare documenti, anche falsi. Questo porta a un’IA “formata sulla base di un ipotetico affidamento al ‘buon senso’ di alcuni miliardi di individui”, che spesso perpetua “pregiudizi culturali e religiosi” e “stereotipi”. Detto in altri termini, l’IA è “automaticamente imbevuta” dell’ “ideologia dominante in tutti i campi”.

Paesaggio toscano ©AlbertoPian

Sebbene il documento Apple non si addentri nella discussione sui bias sociali o religiosi, conferma però il problema della qualità dei dati di addestramento. Gli autori, a esempio, notano che le valutazioni attuali “spesso soffrono di contaminazione dei dati” e che i modelli performano peggio sul benchmark più evoluto AIME25 rispetto ad AIME24: “potenzialmente suggerendo una contaminazione dei dati durante l’addestramento”.

Questa vulnerabilità alla contaminazione dei dati durante l’ddestramento è una eco diretta delle nostre preoccupazioni sull’inaffidabilità delle fonti su cui l’IA viene formata e, soprattutto, sulla sua incapacità di discernere la verità dalla disinformazione, o dallo stereotipo per assumere un approccio critico e indipendente.

L’intelligenza umana


Un punto cardine del nostro approccio basato sulla padronanza, per costruzione di un mindset, è che “la costruzione dell’articolo e della storia è sempre opera dell’autore, mai della IA”. Abbiamo enfatizzato che “Gli output dell’IA, per quanto sofisticati possano apparire, richiedono invariabilmente l’intervento umano per essere trasformati in prodotti culturali significativi e pertinenti”.

È l’autore che deve “guidare l’IA e mescolare i risultati ottenuti in una struttura narrativa originale, ma piena di valore e contenuti, sentita dall’autore stesso”. È l’essere umano che “può sfidare gli stereotipi, offrire nuove prospettive e spingere i confini della creatività”. In definitiva: “più il potere e i contenuti forniti dalla IA si diffondono e più abbiamo bisogno di autori davvero orientati in modo critico, indipendente e divergente, per abbattere gli stereotipi e per smontare i caposaldi della cultura di massa”.

Dal canto suo la ricerca di Apple, pur concentrandosi su aspetti tecnici, implicitamente rafforza questa questione. Il “collasso completo” delle prestazioni dei LRM oltre una certa complessità, dimostra che l’IA non può operare in modo autonomo in scenari complessi o non previsti dai suoi dati di addestramento. La sua “illusione di pensare” rende l’intervento umano assolutamente indispensabile per poter: “trasformare queste idee in punti di vista, opere e contenutiti originali, critici, indipendenti”, soprattutto quando i modelli “falliscono nel generare soluzioni pensate corrette”.

L’IA, come ribadito da questa ricerca scientifica: “non dovrebbe mai sostituire completamente la creatività umana o diventare l’arbitro di ciò che è culturalmente rilevante o accettabile”.

In definitiva


Le scoperte del gruppo di ricerca sui “Large Reasoning Models” non solo arricchiscono la nostra comprensione tecnica delle capacità attuali dell’IA, ma sono anche una convalida empirica delle intuizioni che abbiamo espresso nel nostro libro.

Sia noi che i ricercatori convergiamo su un punto fondamentale: l’IA è uno strumento basato solo su architetture statistiche fondate su miliardi di token, che non possiede una vera e propria capacità di ragionamento e non può gestire la complessità, o esprimere una comprensione critica dei contenuti.
Per questo ci concentriamo sull’importanza cruciale di un “mindset” consapevole. L’intelligenza umana, con la sua capacità di giudizio critico, di esperienza vissuta e di pensiero divergente, è il solo mezzo per padroneggiare la IA – e dunque il destino stesso dell’uomo.


IA il tuo Mindset per giornalisti e narratori consapevoli, Teresa Potenza, Alberto Pian, 2025

Informazioni sul libro e sull’incontro con gli autori


Approfondisci con i miei eBook

Qui, in Gumroad trovi offerte speciali per i miei libri (che sono in tutti gli store, ma qui li trovi con sconti, gratis e in bundle). Ti segnalo il Bundle che comprende tre libri sul podcasting e puoi vedere anche racconti e romanzi per apprendere lo storytelling, libri di fotografia e di montaggio video, graphic novel, Intelligenza Artificiale, e diversi di questi sono gratuiti! E comunque, in tutti puoi applicare uno sconto del 25% inserendo il codice SCONTO25.
Vuoi avere notizie della qualità di Autore? Leggi questa pagina del mio sito: https://www.albertopian.it/pubblicazioni/