di Fernando Monaco, esperto di AI e AI Generativa
Siete mai stati curiosi di sapere cosa succede esattamente quando scrivete una domanda per un chatbot o parlate con un voicebot? Qui faremo un vero e proprio tour dietro le quinte per scoprire come funzionano questi assistenti virtuali e come l’AI Generativa stia riscrivendo le regole del gioco.
Quando il bot non sapeva improvvisare: il modello classico
Immaginate un cliente che scrive o parla con l’assistente. La prima cosa che succede è una fase delicatissima chiamata NLU (Natural Language Understanding). Non si tratta solo di capire le parole, ma di “incasellare” la richiesta in una casistica predefinita, un “intento”, come ad esempio “segnalazione” o “reclamo”. Sbagliare questa classificazione significa che la macchina risponderà inevitabilmente in modo sbagliato.
Contemporaneamente a questa fase, il sistema estrae le entità: informazioni utili come l’anagrafica, il nome del prodotto, o una data di scadenza. Queste entità sono fondamentali perché vengono usate per interrogare i sistemi interni dell’azienda, come il database o il CRM. La macchina è in grado di fare le sue “query” e risalire all’anagrafica del cliente, controllare se il prodotto è in garanzia, o vedere se ci sono state segnalazioni precedenti.
Una volta raccolto tutto (intento e informazioni), entra in gioco un “orchestratore” che indirizza la risposta verso un flusso già preconfigurato e noto. Pensatelo come una sceneggiatura di un film. Molto spesso, la risposta finale è semplicemente un “copy prestabilito” e pronto all’uso.
Questo meccanismo, pur con margini di miglioramento, è quello che ha retto la gran parte dei chatbot e voicebot attuali, utilizzati per esempio dalle compagnie telefoniche o da quelle energetiche, ottenendo risultati ritenuti tutto sommato soddisfacenti.
L’Intelligenza Generativa: il salto di qualità indispensabile
L’arrivo dell’AI Generativa ha portato un salto di qualità decisamente importante.
La prima area migliorata è l’interpretazione stessa. I classici modelli NLU sono stati superati dagli LLM (Large Language Models), modelli enormi, addestrati su miliardi di testi in tutte le lingue, che riescono a comprendere la richiesta del cliente in modo molto più efficace.
Ma la vera rivoluzione sta nella gestione della conoscenza. Fino a ieri, il bot gestiva bene i dati strutturati (anagrafiche precise da database); oggi, la Gen AI è bravissima a interpretare anche i testi non strutturati e articolati. L’azienda può fornire al modello manuali di prodotti, procedure tecniche o interi storici di segnalazioni, creando una Knowledge Base documentale, la cui qualità come si dice più volte in questo blog è imprescindibile per avere risultati soddisfacenti. Il motore di AI è così intelligente che non solo attinge a questa documentazione, ma seleziona solo e soltanto le informazioni, i capitoli o i dati che servono effettivamente a rispondere a quella specifica domanda. Questo potere di discernimento rende la risposta più veloce e precisa.
E i flussi prestabiliti? Vengono accantonati. Si passa a una gestione molto più snella basata sulle istruzioni che diamo al modello generativo, che noi chiamiamo prompt. L’istruzione di base è semplice: “Questa è la domanda del cliente. Queste sono le informazioni che ho selezionato per te. Basati esclusivamente su questo per rispondere”.
Di conseguenza, la risposta generata non è più un testo copiato. La macchina è completamente libera di costruire una frase, seguendo le istruzioni che le abbiamo dato sul tono di voce, lo stile o la lunghezza. Non si manipola la risposta finale, ma si manipolano le istruzioni, permettendo alla macchina di generare una risposta che sia “meno macchina possibile” e molto più vicina al linguaggio umano.
Questa soluzione non è più solo una promessa, ma è un dato di fatto: gli assistenti virtuali delle grandi compagnie, infatti, si stanno tutti trasformando in generativi.
Uno sguardo al futuro: verso l’AI autonoma ed empatica
Se questo è il presente, quali saranno le prossime frontiere? Secondo i più esperti, il futuro dell’AI Generativa si svilupperà in tre direzioni fondamentali:
- L’Intelligenza Artificiale Agentica (Agentic AI): Finora, l’intero processo era un unico grande comando. Ora, l’idea è spacchettare il tutto in tanti piccoli agenti autonomi, ognuno con la propria missione e il proprio prompt specifico. Questi agenti possono lavorare in fila (l’output di uno è l’input del successivo), ma la sfida ambiziosa è permettere loro di dialogare autonomamente tra di loro, richiedendo informazioni a un agente precedente senza che il percorso sia stato predefinito.
- L’Intelligenza Artificiale Autonoma (Autonomous AI): Fino a oggi, abbiamo lavorato con lo schema input (la domanda) e output (la risposta). L’IA autonoma vuole dare molta più libertà ai modelli. Gli agenti dovranno portare avanti task complessi e saranno loro stessi a decidere se e come interrogare i sistemi per raccogliere i dati necessari. A questo scopo, accanto agli LLM, si stanno introducendo i modelli di reasoning, progettati per ragionare su come impostare e risolvere una richiesta. Questo livello di autonomia è affascinante ma comporta anche il rischio che gli operatori umani possano perdere il controllo. Questa direzione punta a migliorare i processi aziendali e le operations.
- L’Intelligenza Artificiale Esperienziale (Experiential AI): L’obiettivo è aggiungere una componente emotiva per un’esperienza utente più ricca. Questo significa analizzare, in tempo reale, il sentiment del messaggio o della voce (rabbia, felicità, scocciatura), il tono o persino l’espressione facciale (tramite computer vision). Tutti questi elementi vengono usati per adattare la risposta del bot, rendendolo più empatico. Ad esempio, se l’utente ha una padronanza linguistica limitata, il bot può calibrare il suo linguaggio scegliendo termini più semplici. L’AI esperienziale unisce diverse discipline (come sentiment analysis, computer vision, neuroscienze e ingegneria comportamentale) spostandosi verso la logica di “experience engineering”.
Insomma, siamo nel pieno di una trasformazione, dove la tecnologia non si limita più a rispondere, ma sta imparando a ragionare, a scomporsi in unità specializzate e, forse, persino a provare empatia, rendendo l’interazione con la macchina sempre meno “macchinosa” e sempre più umana.