Come “pensa” l’AI

Modulo 2 di 8
Come “pensa” l’AI
(senza fare matematica)

Non devi diventare un ingegnere per usare l’AI in modo efficace. Ma capire come funziona — anche solo a grandi linee — ti rende un utente molto più consapevole e capace.

  • Lettura: ~25 minuti
  • 4 lezioni
  • 1 esercizio pratico
Cosa imparerai in questo modulo
  • Capire come l’AI impara, con un’analogia che non dimenticherai
  • Distinguere ChatGPT, Copilot e Gemini — quando usare quale
  • Capire perché l’AI sbaglia e come proteggerti dagli errori
  • Conoscere i limiti fondamentali dell’AI prima di fidarti ciecamente
Lezione 2.1
L’AI impara come un bambino… ma molto più velocemente

Proviamo con un’analogia. Immagina un bambino che sta imparando a riconoscere i gatti. All’inizio non sa cosa sia un gatto. Gli mostri una foto: “questo è un gatto”. Ne mostri un’altra: “anche questo è un gatto”. Poi una di un cane: “questo no, non è un gatto”. Dopo qualche centinaio di esempi, il bambino riesce a riconoscere un gatto anche in una foto nuova che non ha mai visto.

L’AI funziona in modo simile — solo che invece di qualche centinaio di esempi, ne ha visti miliardi. E invece di imparare a riconoscere gatti, ha imparato a riconoscere schemi nel linguaggio: quali parole tendono a seguire certe altre parole, come sono strutturate le frasi in un documento legale, come si scrive un’email professionale, come si risponde a una domanda di supporto clienti.

Questa è la chiave per capire tutto il resto: l’AI non “pensa” nel senso umano. Non ha intuizioni, non ha emozioni, non ha coscienza. Fa previsioni statistiche straordinariamente accurate su quale sia la risposta più probabile e utile. Ed è proprio per questo che è così potente — e anche per questo che a volte sbaglia in modi che sembrano assurdi.

Curiosità

GPT-4, il modello alla base di ChatGPT, è stato addestrato su un corpus di testo che si stima superi i 500 miliardi di parole. Per fare un confronto: un essere umano che legge 8 ore al giorno per tutta la vita arriva a leggere circa 80 milioni di parole. L’AI ha “letto” circa 6.000 volte di più di quanto potrebbe fare un umano in un’intera esistenza.

Conoscere questo meccanismo ti dà un vantaggio pratico enorme: sai come “nutrire” l’AI con le informazioni giuste per ottenere risposte migliori. Lo vedremo in dettaglio nel Modulo 3, quando parliamo di prompt.

Lezione 2.2
ChatGPT, Copilot, Gemini — le differenze pratiche

Oggi sul mercato esistono decine di strumenti AI. Quelli che troverai più spesso in un contesto aziendale sono quattro. Non sono uguali, non fanno le stesse cose allo stesso modo, e scegliere quello giusto per il compito giusto fa una differenza enorme.

ChatGPT OpenAI Il più famoso. Ottimo per scrivere, analizzare, fare brainstorming. La versione Plus (a pagamento) ha accesso al web e può analizzare file.
Microsoft Copilot Microsoft Integrato in Word, Excel, Teams, Outlook. Se la tua azienda usa Microsoft 365, è già nella tua suite. Ideale per il lavoro quotidiano su documenti.
Gemini Google Integrato in Google Workspace (Docs, Gmail, Sheets). Se usi G-Suite in azienda, Gemini è il tuo alleato naturale.
Claude Anthropic Particolarmente apprezzato per ragionamenti complessi, testi lunghi e compiti che richiedono attenzione alla sfumatura. Eccellente per analisi di documenti.
Caso reale

Un responsabile operations di un’azienda manifatturiera lombarda ha raccontato la sua esperienza: “Usavo ChatGPT per tutto, poi ho capito che per lavorare sui contratti in Word era molto più comodo Copilot — già integrato, senza copia-incolla. Ora uso strumenti diversi per compiti diversi e ho dimezzato i tempi su alcune attività.” La chiave non è trovare lo strumento “migliore in assoluto”, ma quello più adatto al contesto.

Una nota importante: tutti questi strumenti evolvono molto rapidamente. Le funzionalità che descrivo oggi potrebbero essere aggiornate o superate nel giro di pochi mesi. Tieniti aggiornato — nel Modulo 8 ti dico come farlo senza impazzire.

Lezione 2.3
Perché l’AI a volte sbaglia (e perché devi sempre controllare)

Questo è forse il punto più importante di tutto il modulo, quindi mettiti comodo.

L’AI sbaglia. Non raramente, non solo in casi estremi — sbaglia in modo regolare, a volte in modo sottile, a volte in modo clamoroso. E la cosa più pericolosa è che lo fa con grande sicurezza. Non dice “non sono sicuro”. Produce la risposta con lo stesso tono autorevole che userebbe per una risposta perfettamente corretta.

“L’AI non sa quello che non sa. E non te lo dice.”

Questo fenomeno si chiama allucinazione: l’AI genera informazioni plausibili ma false, perché il suo obiettivo è produrre testo statisticamente coerente, non testo necessariamente vero. È come un collaboratore molto bravo a scrivere rapporti, ma che a volte inventa i dati pur di consegnare un documento completo.

Caso reale — l’errore da non ripetere

Nel 2023, un avvocato americano di nome Steven Schwartz usò ChatGPT per preparare una memoria legale. ChatGPT citò sei precedenti giurisprudenziali a supporto della sua tesi. Peccato che quei casi non esistessero: erano stati completamente inventati dal modello, con nomi di giudici, date e riferimenti del tutto falsi. L’avvocato, non avendo verificato, li presentò al tribunale. Il giudice scoprì la frode e il professionista subì conseguenze disciplinari gravi. La lezione: l’AI è un assistente, non un oracolo. Verifica sempre le informazioni fattuali critiche.

Questo non significa che l’AI sia inutile — significa che devi usarla come useresti un collaboratore junior molto brillante ma inesperto: gli dai un compito, rivedi il suo lavoro, correggi gli errori. Non firmi il documento senza leggerlo.

Curiosità

Il termine “allucinazione” in ambito AI fu usato per la prima volta in un paper del 2018 dai ricercatori di Google Brain. Oggi è il termine standard per descrivere il fenomeno per cui i modelli generano informazioni false ma plausibili. I team di ricerca delle principali aziende AI (OpenAI, Google, Anthropic) considerano la riduzione delle allucinazioni uno dei problemi tecnici più difficili e urgenti da risolvere.

Lezione 2.4
I limiti che devi conoscere: dati vecchi, allucinazioni, bias

Ora che sai come funziona l’AI e perché sbaglia, facciamo un inventario completo dei suoi limiti principali. Non per spaventarti, ma per renderti un utente consapevole — che sa quando fidarsi e quando no.

Attenzione Dati con una scadenza I modelli vengono addestrati fino a una certa data (il “knowledge cutoff”). Quello che è successo dopo, l’AI non lo sa — a meno che non abbia accesso al web in tempo reale.
Critico Allucinazioni Dati, citazioni, nomi, numeri possono essere inventati. Non usare mai l’AI come fonte unica per informazioni fattuali importanti.
Attenzione Bias nei dati L’AI ha imparato da testi scritti da esseri umani — che contengono pregiudizi culturali, di genere, geografici. Questi bias possono emergere nelle risposte in modo sottile.
Da sapere Zero contesto aziendale L’AI non conosce la tua azienda, i tuoi clienti, la tua cultura interna. Deve impararlo da te ogni volta, attraverso il prompt. Più contesto dai, meglio lavora.
Da sapere Nessuna memoria persistente Di default, ogni nuova conversazione ricomincia da zero. L’AI non ricorda quello che le hai detto ieri. Esistono soluzioni tecniche, ma è un limite da tenere a mente.
Critico Privacy e dati sensibili Tutto quello che scrivi in un’AI pubblica può essere usato per migliorare il modello. Non inserire mai dati personali di clienti, segreti aziendali o informazioni riservate.
Caso reale

Nel 2023, alcuni dipendenti di Samsung inserirono codice sorgente proprietario in ChatGPT per farsi aiutare a trovare bug. Nel giro di settimane, la notizia trapelò: quel codice era potenzialmente accessibile da OpenAI per l’addestramento futuro del modello. Samsung reagì vietando l’uso di AI generativa esterna a livello aziendale. Oggi molte grandi aziende hanno policy chiare sull’uso dell’AI — è importante conoscerle e rispettarle.

Conoscere i limiti non significa non usare l’AI — significa usarla bene. Un martello è uno strumento fantastico per piantare chiodi e pessimo per avvitare viti. L’AI è uno strumento fantastico per generare bozze, riassumere, brainstormare — e da usare con cautela per numeri precisi, dati legali o informazioni sensibili.

  • 1 Usa l’AI per il 90% del lavoro grezzoGenerazione di bozze, strutturazione, prima analisi, ricerca preliminare: l’AI è straordinaria.
  • 2 Applica il tuo giudizio al 10% criticoVerifica i dati fattuali, aggiungi il contesto specifico, valuta se il tono è giusto per il destinatario reale.
  • 3 Firma tu, sempreIl risultato finale porta la tua firma professionale. La responsabilità è tua, non dell’AI.
Esercizio del modulo Metti alla prova un’AI (e scopri i suoi limiti)
  1. Apri ChatGPT, Copilot o qualsiasi AI a cui hai accesso. Chiedi un’informazione fattuale che conosci bene — un dato sul tuo settore, una normativa, una scadenza.
  2. Verifica la risposta con una fonte ufficiale. L’AI ha risposto correttamente? In modo parziale? Ha inventato qualcosa?
  3. Ora chiedi la stessa cosa aggiungendo contesto: “Lavoro nel settore [X] in Italia, ho bisogno di sapere [Y] in modo preciso e aggiornato al 2024.” La risposta migliora?
  4. Annota le differenze. Stai già imparando a usare l’AI in modo critico — questa è la competenza più preziosa di tutto il corso.
L’obiettivo non è trovare gli errori dell’AI per sminuirla. È capire dove posizionare il tuo occhio critico per lavorare con lei in modo efficace.