Avete mai passato venti minuti a rimbalzare tra siti web, PDF istituzionali e numeri di telefono che non rispondono, solo per scoprire l’orario di apertura di un ufficio municipale? Oppure vi siete ritrovati a scorrere pagine e pagine di FAQ aziendali senza trovare risposta alla vostra domanda specifica? È un’esperienza frustrante, comune, e oggi sempre più evitabile.
La soluzione sta prendendo la forma di assistenti conversazionali di nuova generazione: software capaci di dialogare in modo naturale, comprendere domande complesse e fornire risposte pertinenti in pochi istanti. Un esempio è Julia, l’assistente digitale del Comune di Roma, che orienta residenti e turisti su monumenti, previsioni atmosferiche, locali, strutture ricettive e persino ricette della tradizione gastronomica capitolina. Senza moduli, senza attese, senza dover sapere a priori quale ufficio contattare.
L’impatto dell’intelligenza artificiale nella comunicazione tra cittadini e istituzioni
Questo non è un caso isolato. Negli ultimi due anni, complice la diffusione capillare dei grandi modelli linguistici — la tecnologia alla base di ChatGPT, Gemini e simili — una nuova generazione di assistenti su misura si sta affermando come canale privilegiato di comunicazione tra aziende, enti pubblici e istituzioni da un lato, e utenti, clienti e cittadini dall’altro.
Per cogliere la portata del cambiamento, conviene ricordare com’erano i sistemi di assistenza automatica di prima generazione, quelli nati a cavallo degli anni 2000: meccanismi rigidi, costruiti su percorsi decisionali fissi e parole chiave prestabilite, che accompagnavano l’utente lungo binari immutabili. “Erano spesso più semplici ed economici da avviare, ma risultavano poco flessibili: fuori dai casi previsti faticavano a gestire quesiti articolati e l’esperienza assomigliava a un quiz a scelta multipla”, spiega Paolo Steila, Executive Director di disruptiveS, società milanese focalizzata su strumenti di intelligenza artificiale per le imprese.
Dalla risposta preconfezionata alla conversazione autentica con i modelli LLM
Gli assistenti odierni, al contrario, interpretano il linguaggio parlato — inclusi refusi, formulazioni inusuali e domande ambigue — e reggono scambi articolati, con richieste di chiarimento, approfondimenti e risposte su più livelli. Questo balzo in avanti è reso possibile dagli LLM (Large Language Models), architetture addestrate su quantità enormi di testi, che hanno appreso in modo statistico a produrre elaborazioni linguisticamente coerenti e contestualmente appropriate.
Ma proprio l’ampiezza di un modello generalista come ChatGPT ne costituisce il tallone d’Achille in contesti professionali. Un assistente aziendale non può permettersi di improvvisare su normative, tariffari o procedure burocratiche. Ed è qui che entra in scena il concetto cardine di “chatbot verticale”: un agente conversazionale progettato non per rispondere a tutto, bensì per rispondere in maniera eccellente a un insieme circoscritto e verificabile di quesiti, attingendo a documentazione certificata.
Esperti, non enciclopedie: il valore della specializzazione tecnologica
La specializzazione consente risposte più precise e un contributo concreto per chi cerca aiuto: nel comparto sanitario, ad esempio, questi strumenti gestiscono prenotazioni e follow-up; in quello finanziario, supportano il monitoraggio delle spese e la consulenza personalizzata. Un caso esemplare è Alciaio, l’assistente di RICREA (Consorzio nazionale per il recupero e il riciclo degli imballaggi in acciaio), sviluppato proprio da disruptiveS. Sa orientare i cittadini sul corretto smaltimento di scatolette, barattoli e contenitori spray, ma fornisce anche chiarimenti tecnici sulle normative di settore agli operatori specializzati. Se però gli si domanda dove conferire una lattina a Milano, non improvvisa: reindirizza verso i portali delle aziende locali di gestione dei rifiuti. Non è un difetto del sistema, ma una sua caratteristica progettuale deliberata.
Il meccanismo che rende possibile questa precisione ha un nome tecnico: RAG, acronimo di Retrieval-Augmented Generation (in italiano: “generazione potenziata dal recupero delle informazioni”). Il funzionamento è più intuitivo di quanto sembri: invece di affidarsi esclusivamente a ciò che il modello linguistico ha assorbito durante l’addestramento, il sistema recupera in tempo reale le informazioni contenute nei documenti ufficiali dell’organizzazione — regolamenti, manuali, FAQ, tariffari — e costruisce la risposta a partire da quei contenuti certificati.
Cosa c’è sotto il cofano: la precisione garantita dalla tecnologia RAG
In altri termini: il programma non “suppone”, ma consulta. Cerca prima nei documenti autorizzati, poi usa le capacità del modello per assemblare una risposta comprensibile. Un ulteriore vantaggio è la trasparenza: i sistemi RAG possono indicare le fonti da cui hanno attinto, permettendo all’utente di verificare in autonomia le informazioni ricevute. Il panorama degli assistenti verticali è già popolato di esempi concreti, e la diffusione riguarda tanto il settore privato quanto quello pubblico, con una velocità di adozione che fino a pochi anni fa sarebbe sembrata improbabile.
Molte aziende hanno già integrato questi strumenti nel proprio servizio di assistenza al consumatore. Billie di IKEA guida i clienti nell’esplorazione del vasto catalogo di arredi, il programma di assistenza di Zara gestisce pratiche legate a ordini, restituzioni e rimborsi, mentre Eva risponde agli interrogativi sul pagamento dei diritti d’autore alla SIAE: quanto versare per l’ascolto di una radiolina in un negozietto di dieci metri quadri, cosa fare per organizzare un ricevimento di nozze o come comportarsi per proiettare un film in una scuola. Nel frattempo Amazon ha lanciato Rufus, un assistente che fornisce suggerimenti di acquisto personalizzati attraverso un’analisi approfondita del catalogo prodotti e delle recensioni dei clienti.
Chi li adopera già: dalle grandi aziende commerciali alle istituzioni pubbliche
Nel settore della cosmetica, L’Oréal ha introdotto Lore, un programma capace di offrire consigli sui prodotti con un livello di interazione paragonabile a quello di un consulente in negozio e Zalando ha lanciato Zalando Assistant, un programma basato su ChatGPT che fornisce raccomandazioni di prodotto a partire da una semplice domanda in linguaggio naturale, mentre Sephora ha collegato il proprio catalogo direttamente a ChatGPT, consentendo agli acquirenti di ricevere consigli personalizzati senza uscire dall’interfaccia conversazionale.
Attraverso domande mirate, questi assistenti raccolgono informazioni sulle preferenze del cliente e suggeriscono articoli specifici; grazie all’integrazione con sistemi di analisi dei dati, sono inoltre in grado di fornire consigli basati sulle tendenze di mercato e sugli acquisti precedenti, rendendo l’esperienza sempre più su misura. Particolarmente sofisticato rimane Leo, l’assistente del costruttore cinese di veicoli elettrici BYD: oltre a rispondere a domande sui modelli in catalogo, affida le risposte a un avatar dalle sembianze umane e le arricchisce con filmati dedicati, fino al momento in cui i quesiti si fanno troppo specifici e il dialogo viene trasferito a un consulente reale.
La trasformazione del settore pubblico: i casi INPS e Provincia di Trento
Sul versante del settore pubblico, la trasformazione è altrettanto significativa, e in Italia procede su più fronti contemporaneamente. INPS ha adottato sistemi conversazionali per semplificare e personalizzare l’interazione con i propri utenti, migliorando l’accessibilità e la fruibilità dei servizi. In concreto, l’Istituto ha realizzato un assistente digitale sull’Assegno Unico Universale che utilizza tecnologie di intelligenza artificiale generativa: il cittadino può accedere al servizio direttamente dal portale INPS senza necessità di autenticarsi, e ricevere risposte h24 su normativa e procedure.
Sul fronte locale invece Chat PaT della Provincia Autonoma di Trento aiuta i cittadini a destreggiarsi tra pratiche come il rinnovo della patente o i servizi alle imprese, Zenia del Comune di Genova orienta i genovesi tra le regole dei servizi erogati sul territorio. Secondo un rapporto dell’AgID pubblicato nel giugno 2025, oltre il 60% dei progetti di intelligenza artificiale nella Pubblica Amministrazione integra ormai programmi conversazionali o assistenti virtuali.
Il pericolo delle allucinazioni e la sfida della verità nell’IA
Se i chatbot verticali presentano vantaggi netti rispetto ai modelli generalisti, non sono però esenti da errori. Il rischio più insidioso prende il nome tecnico di allucinazione: quando il programma non dispone di un dato preciso, può generare una risposta verosimile ma inventata, con la stessa apparente sicurezza con cui fornirebbe un’informazione verificata. Un test condotto su Julia, l’assistente romano, lo ha dimostrato in maniera concreta: interpellato sulla Fontana di Trevi, il sistema ha indicato che l’accesso è gratuito — informazione errata, dato che l’area monumentale è a pagamento dall’inizio del 2025.
“Un modello linguistico generico come ChatGPT, Gemini o Claude è addestrato su enormi quantità di testo ed è straordinariamente capace, ma di norma non ha accesso ai dati proprietari di un’organizzazione e non è vincolato a un insieme chiuso e verificabile di fonti”, osserva Paolo Steila. I sistemi più evoluti introducono oggi una fase di controllo successiva alla generazione, in cui ogni affermazione viene verificata rispetto alle fonti. “Se qualcosa non combacia, la risposta viene rielaborata o ridimensionata. Un onere computazionale aggiuntivo, ma una garanzia concreta per chi riceve l’informazione”.
Sapere quando fermarsi: la virtù del limite e il futuro dell’autonomia operativa
La sfida progettuale più delicata, dunque, non consiste nel rendere il sistema più erudito in senso assoluto, ma nell’insegnargli a riconoscere i confini del proprio sapere. “La gestione del perimetro di competenze è una delle sfide progettuali più rilevanti, ma anche una grande opportunità: un assistente che sa restare nel proprio ambito non è limitato, ma è affidabile”, conclude Steila. La strategia più efficace è il cosiddetto redirect intelligente: se qualcuno rivolge a un chatbot specializzato una domanda fuori target, la risposta sarà un cortese suggerimento verso i servizi adeguati.
Gli assistenti di nuova generazione si stanno evolvendo verso una maggiore autonomia operativa: non solo rispondono, ma possono modificare ordini, inviare notifiche personalizzate o prendere decisioni sulla base di dati aggiornati in tempo reale. La prossima frontiera è già disegnata. Ma il principio che guida i sistemi più affidabili rimane immutato: riconoscere ciò che non si sa è il primo passo per diventare davvero utili.
