Come “pensa” l’AI

(senza fare matematica)
Non devi diventare un ingegnere per usare l’AI in modo efficace. Ma capire come funziona — anche solo a grandi linee — ti rende un utente molto più consapevole e capace.
- Capire come l’AI impara, con un’analogia che non dimenticherai
- Distinguere ChatGPT, Copilot e Gemini — quando usare quale
- Capire perché l’AI sbaglia e come proteggerti dagli errori
- Conoscere i limiti fondamentali dell’AI prima di fidarti ciecamente
Proviamo con un’analogia. Immagina un bambino che sta imparando a riconoscere i gatti. All’inizio non sa cosa sia un gatto. Gli mostri una foto: “questo è un gatto”. Ne mostri un’altra: “anche questo è un gatto”. Poi una di un cane: “questo no, non è un gatto”. Dopo qualche centinaio di esempi, il bambino riesce a riconoscere un gatto anche in una foto nuova che non ha mai visto.
L’AI funziona in modo simile — solo che invece di qualche centinaio di esempi, ne ha visti miliardi. E invece di imparare a riconoscere gatti, ha imparato a riconoscere schemi nel linguaggio: quali parole tendono a seguire certe altre parole, come sono strutturate le frasi in un documento legale, come si scrive un’email professionale, come si risponde a una domanda di supporto clienti.
Un cuoco esperto ha preparato migliaia di piatti. Sa, senza pensarci, che dopo “taglia le cipolle” viene “falle soffriggere” — non perché ragioni, ma perché l’ha fatto mille volte.
≈L’AI ha “letto” miliardi di testi. Sa, statisticamente, che dopo “gentile destinatario” viene “mi permetto di contattarla” — non perché capisca, ma perché l’ha visto milioni di volte.
Questa è la chiave per capire tutto il resto: l’AI non “pensa” nel senso umano. Non ha intuizioni, non ha emozioni, non ha coscienza. Fa previsioni statistiche straordinariamente accurate su quale sia la risposta più probabile e utile. Ed è proprio per questo che è così potente — e anche per questo che a volte sbaglia in modi che sembrano assurdi.
GPT-4, il modello alla base di ChatGPT, è stato addestrato su un corpus di testo che si stima superi i 500 miliardi di parole. Per fare un confronto: un essere umano che legge 8 ore al giorno per tutta la vita arriva a leggere circa 80 milioni di parole. L’AI ha “letto” circa 6.000 volte di più di quanto potrebbe fare un umano in un’intera esistenza.
Conoscere questo meccanismo ti dà un vantaggio pratico enorme: sai come “nutrire” l’AI con le informazioni giuste per ottenere risposte migliori. Lo vedremo in dettaglio nel Modulo 3, quando parliamo di prompt.
Oggi sul mercato esistono decine di strumenti AI. Quelli che troverai più spesso in un contesto aziendale sono quattro. Non sono uguali, non fanno le stesse cose allo stesso modo, e scegliere quello giusto per il compito giusto fa una differenza enorme.
Un responsabile operations di un’azienda manifatturiera lombarda ha raccontato la sua esperienza: “Usavo ChatGPT per tutto, poi ho capito che per lavorare sui contratti in Word era molto più comodo Copilot — già integrato, senza copia-incolla. Ora uso strumenti diversi per compiti diversi e ho dimezzato i tempi su alcune attività.” La chiave non è trovare lo strumento “migliore in assoluto”, ma quello più adatto al contesto.
Una nota importante: tutti questi strumenti evolvono molto rapidamente. Le funzionalità che descrivo oggi potrebbero essere aggiornate o superate nel giro di pochi mesi. Tieniti aggiornato — nel Modulo 8 ti dico come farlo senza impazzire.
Questo è forse il punto più importante di tutto il modulo, quindi mettiti comodo.
L’AI sbaglia. Non raramente, non solo in casi estremi — sbaglia in modo regolare, a volte in modo sottile, a volte in modo clamoroso. E la cosa più pericolosa è che lo fa con grande sicurezza. Non dice “non sono sicuro”. Produce la risposta con lo stesso tono autorevole che userebbe per una risposta perfettamente corretta.
Questo fenomeno si chiama allucinazione: l’AI genera informazioni plausibili ma false, perché il suo obiettivo è produrre testo statisticamente coerente, non testo necessariamente vero. È come un collaboratore molto bravo a scrivere rapporti, ma che a volte inventa i dati pur di consegnare un documento completo.
Nel 2023, un avvocato americano di nome Steven Schwartz usò ChatGPT per preparare una memoria legale. ChatGPT citò sei precedenti giurisprudenziali a supporto della sua tesi. Peccato che quei casi non esistessero: erano stati completamente inventati dal modello, con nomi di giudici, date e riferimenti del tutto falsi. L’avvocato, non avendo verificato, li presentò al tribunale. Il giudice scoprì la frode e il professionista subì conseguenze disciplinari gravi. La lezione: l’AI è un assistente, non un oracolo. Verifica sempre le informazioni fattuali critiche.
Questo non significa che l’AI sia inutile — significa che devi usarla come useresti un collaboratore junior molto brillante ma inesperto: gli dai un compito, rivedi il suo lavoro, correggi gli errori. Non firmi il documento senza leggerlo.
Il termine “allucinazione” in ambito AI fu usato per la prima volta in un paper del 2018 dai ricercatori di Google Brain. Oggi è il termine standard per descrivere il fenomeno per cui i modelli generano informazioni false ma plausibili. I team di ricerca delle principali aziende AI (OpenAI, Google, Anthropic) considerano la riduzione delle allucinazioni uno dei problemi tecnici più difficili e urgenti da risolvere.
Ora che sai come funziona l’AI e perché sbaglia, facciamo un inventario completo dei suoi limiti principali. Non per spaventarti, ma per renderti un utente consapevole — che sa quando fidarsi e quando no.
Nel 2023, alcuni dipendenti di Samsung inserirono codice sorgente proprietario in ChatGPT per farsi aiutare a trovare bug. Nel giro di settimane, la notizia trapelò: quel codice era potenzialmente accessibile da OpenAI per l’addestramento futuro del modello. Samsung reagì vietando l’uso di AI generativa esterna a livello aziendale. Oggi molte grandi aziende hanno policy chiare sull’uso dell’AI — è importante conoscerle e rispettarle.
Conoscere i limiti non significa non usare l’AI — significa usarla bene. Un martello è uno strumento fantastico per piantare chiodi e pessimo per avvitare viti. L’AI è uno strumento fantastico per generare bozze, riassumere, brainstormare — e da usare con cautela per numeri precisi, dati legali o informazioni sensibili.
- 1 Usa l’AI per il 90% del lavoro grezzoGenerazione di bozze, strutturazione, prima analisi, ricerca preliminare: l’AI è straordinaria.
- 2 Applica il tuo giudizio al 10% criticoVerifica i dati fattuali, aggiungi il contesto specifico, valuta se il tono è giusto per il destinatario reale.
- 3 Firma tu, sempreIl risultato finale porta la tua firma professionale. La responsabilità è tua, non dell’AI.
- Apri ChatGPT, Copilot o qualsiasi AI a cui hai accesso. Chiedi un’informazione fattuale che conosci bene — un dato sul tuo settore, una normativa, una scadenza.
- Verifica la risposta con una fonte ufficiale. L’AI ha risposto correttamente? In modo parziale? Ha inventato qualcosa?
- Ora chiedi la stessa cosa aggiungendo contesto: “Lavoro nel settore [X] in Italia, ho bisogno di sapere [Y] in modo preciso e aggiornato al 2024.” La risposta migliora?
- Annota le differenze. Stai già imparando a usare l’AI in modo critico — questa è la competenza più preziosa di tutto il corso.
