Autore: Davide Sechi
07/05/2026

Agenti AI, dalla voce al contesto: come indigo.ai ridefinisce la relazione cliente

Il CEO della società Gianluca Maruzzella ci guida nell’evoluzione dell’AI conversazionale tra voce, contesto e controllo

Agenti AI, dalla voce  al contesto: come indigo.ai  ridefinisce la relazione cliente

Gianluca Maruzzella

L’AI conversazionale sta entrando in una nuova fase, in cui non basta più rispondere: serve comprendere, adattarsi e costruire fiducia. Dalla voce ai modelli di contesto, le aziende stanno evolvendo verso interazioni sempre più naturali, fluide e orientate al risultato. Tecnologie come Voice2Voice, Context Engineering e sistemi di governance stanno riscrivendo le regole del customer care e del supporto alle vendite. In questo scenario si distingue indigo.ai, realtà italiana che sviluppa Agenti AI capaci di coniugare performance, controllo e qualità dell’esperienza. Ne parliamo con il CEO di indigo.ai Gianluca Maruzzella, tra i protagonisti del Netcomm Forum 2026.

Partiamo dalla voce: come stanno evolvendo oggi gli Agenti AI vocali e in che modo il paradigma Voice2Voice può cambiare concretamente l’esperienza utente nel customer care e nelle vendite?

«Nel customer care e nelle vendite tutto viene ancora utilizzato in maniera molto superficiale. Lo dico anche da cliente, perché spesso le esperienze non sono positive. Noi esistiamo proprio per ribaltare questa situazione e fare in modo che le persone vivano esperienze migliori. Esattamente un anno e un mese fa, poco prima di raccontarlo qui al Netcomm, avevamo annunciato la campagna Voice. Avevamo fatto quell’annuncio sul Duomo legato all’integrazione della telefonia con gli agenti AI. Quello è stato il momento in cui abbiamo iniziato a raccontare al mercato che questa tecnologia poteva essere utilizzata davvero. A distanza di un anno posso dire che è andata molto bene. La campagna ha avuto successo anche dal punto di vista del racconto e questo per noi è stato importante. L’abbiamo utilizzata su LinkedIn, l’abbiamo condivisa con i nostri contatti, ma soprattutto ci ha portato tantissime richieste da parte dei clienti. Oggi la maggior parte dei progetti che ci chiedono ruota attorno alla voce. Questo perché, rispetto al passato, dove molte aziende sperimentavano chatbot e agenti AI sulle chat dei siti, il DNA delle aziende resta ancora costruito attorno a un call center umano che risponde con la voce. Se abbiamo un problema con la banca, chiamiamo la banca, non scriviamo alla banca. Questo ha un impatto enorme sui volumi e rende il business case molto più semplice da sostenere. Abbiamo visto tanti progetti, tanto interesse, tanti clienti importanti e soprattutto una disponibilità concreta a potenziare il lavoro delle persone attraverso l’intelligenza artificiale. La maggior parte dei call center lavora dalle nove alle diciotto, dal lunedì al venerdì, ma in realtà il nostro tempo libero è spesso il momento in cui chiediamo aiuto, cerchiamo informazioni o gestiamo aspetti della nostra vita personale. Per questo avere un layer conversazionale capace di gestire la voce in maniera umana ed empatica è diventato necessario».

Naturalmente una conversazione deve essere molto naturale per trasmettere fiducia. Come sta evolvendo questa situazione? Quali sono oggi i limiti ancora da superare?

«I parametri fondamentali, quando si vuole costruire una grande esperienza vocale, sono soprattutto umanità ed empatia, che sono aspetti centrali anche per il nostro brand, e poi la latenza, che è una conseguenza diretta di questi elementi. Esiste sempre una tensione naturale tra intelligenza e velocità. Più utilizzi un modello intelligente, più quel modello deve “pensare” e quindi meno veloce sarà la risposta. Però con un paradigma come il nostro, basato sul multi-agent, quindi non su un solo agente ma su tanti agenti che lavorano insieme, ogni richiesta viene suddivisa tra agenti specializzati che ricevono compiti molto verticali. In questo modo lavorano in parallelo e riescono a essere molto più veloci. Anche senza utilizzare necessariamente il modello più avanzato, riescono comunque a dare risposte più che soddisfacenti rispetto alle richieste delle persone. Questo permette di minimizzare la latenza che, in contesti enterprise come il customer care, è fondamentale. Se fai una conversazione e rispondi dopo quaranta secondi, l’utente attacca subito».

Parliamo di context engineering. Sta diventando un elemento centrale dell’intelligenza artificiale conversazionale: dove si gioca oggi 
la sfida?

«Dal nostro punto di vista la sfida è completamente cambiata. Oggi l’intelligenza è praticamente a disposizione di tutti, ce n’è quasi in abbondanza. Continuano a uscire modelli nuovi e la competizione non è più capire chi sia più intelligente, perché ormai l’intelligenza è in surplus. La vera sfida è dare l’informazione giusta, al posto giusto, nel momento giusto, all’agente giusto. Quando riesci a fare bene questa cosa, le risposte diventano efficaci, l’esperienza funziona e i costi si abbassano, perché gli agenti utilizzano soltanto le informazioni necessarie. Se guardi quello che facciamo con una lente tecnica, alla fine è uno sport di context engineering».

E invece il Model Context Protocol? Se ne parla come di un possibile nuovo standard: perché? Che cosa cambia concretamente?

«Se ne parla moltissimo. È un protocollo introdotto inizialmente da Anthropic, ma il concetto è molto semplice. È come avere un layer di API che rende accessibili i sistemi informatici dall’esterno, però invece di essere interrogati da altri sistemi mette a disposizione dati strutturati per gli agenti AI. In pratica rende più semplice agli agenti recuperare l’informazione giusta nel momento giusto. Prima, con le API tradizionali, dovevi scrivere ogni volta la query, costruire la chiamata e lavorare sempre sullo stesso template, quindi tutto diventava difficile da mantenere nel tempo. Con un protocollo MCP, invece, l’agente può autogenerarsi la chiamata necessaria per recuperare quel tipo di informazione. Questo semplifica enormemente la manutenzione e permette agli agenti di utilizzare solo i dati realmente utili, rafforzando ancora di più il principio del context engineering».

Come si costruisce oggi un sistema di governance efficace per l’AI conversazionale, capace di bilanciare controllo, sicurezza, privacy ed esperienza utente?

«Fare una demo è semplice. Spesso si vedono conversazioni molto sensazionalistiche, ma quando devi portare qualcosa in produzione lì inizia la vera sfida. È anche il motivo per cui noi abbiamo accumulato un centinaio di referenze enterprise che sono andate oltre il semplice progetto pilota e hanno generato impatto reale. La sfida non è soltanto rispondere correttamente, ma garantire che tutto il processo di governo dell’intelligenza artificiale sia compliant rispetto ai requisiti aziendali, sia dal punto di vista della fiducia sia rispetto alle regole che l’azienda decide di darsi nel modo di interagire con l’esterno. Questo passa anche attraverso aspetti molto tecnici. Una parola che si sente spesso è “guardrail”: sono limiti, regole e parametri che definisci per gli agenti affinché sappiano cosa non devono mai superare. Devi dare autonomia e capacità decisionale agli agenti, ma sempre in modo controllato. In un’azienda non puoi permetterti il costo dell’errore. Devi garantire sempre la risposta corretta e quindi servono dei paracadute che assicurino questo tipo di esperienza».

Siamo arrivati a un livello in cui non ci si può più permettere errori.

«Esatto. Il costo di una risposta sbagliata può essere pericolosissimo. Immagina un agente che comunica informazioni errate su un prestito o su condizioni bancarie. Se un’azienda non ha fatto bene questo lavoro, rischi di trovarti una banca che fornisce informazioni non corrispondenti alla realtà. E ovviamente l’utente si arrabbia moltissimo. Non dovrebbe succedere. Però non è responsabilità nostra difendere gli errori delle aziende: sono le aziende che devono minimizzarli il più possibile».

Guardando al futuro: quali saranno secondo te le evoluzioni più rilevanti degli agenti AI nei prossimi tre anni? E quale ruolo volete giocare voi di indigo.ai?

«Fare previsioni è sempre complicato, soprattutto in un settore che corre a questa velocità. Noi abbiamo avuto la fortuna, un anno fa, di trovare un socio come Azimut che ci ha dato le risorse finanziarie per crescere e sostenere una domanda sempre più forte. Abbiamo notato che le progettualità che realizziamo sono totalmente indipendenti dalla lingua o dai confini nazionali. Stiamo lavorando molto bene anche all’estero e abbiamo in serbo alcune novità importanti che racconteremo nei prossimi appuntamenti. Uno degli obiettivi che ci ha dato il fondo è proprio costruire le basi giuste per raccogliere risultati a livello globale. Abbiamo un prodotto molto solido, abbiamo intercettato tendenze tecnologiche che ci hanno permesso di restare avanti rispetto a tanti altri e oggi la nostra competizione non è più nazionale».

Addirittura globale?

«Sì. Non posso dire troppo adesso, ma arriveranno notizie dedicate. Un’altra cosa importante, che abbiamo annunciato proprio durante l’evento, riguarda i self-improvement. Abbiamo rilasciato una feature beta che porta un ulteriore passo avanti nel paradigma di costruzione e orchestrazione degli agenti. Oggi il successo di un progetto dipende ancora molto dal tempo che i manager o i nostri team dedicano al monitoraggio degli agenti: devono leggere le conversazioni, capire cosa è andato bene, cosa può migliorare, verificare che tutto rispetti i parametri scelti. È un controllo qualità continuo ed è fondamentale, anche perché il contesto cambia costantemente e quindi anche conoscenza e comportamento degli agenti devono evolvere. Però, man mano che aumentano la dimensione dei clienti e la complessità dei casi, questa attività diventa sempre più pesante. Allora ci siamo chiesti: se abbiamo già intelligenza artificiale per fare tantissime cose, perché non usarla anche qui? Da qui nasce la feature self-improvement: un altro agente AI legge le conversazioni degli altri agenti, analizza i pattern, individua cosa è andato bene e cosa no, propone miglioramenti e li sottopone ai manager tramite notifiche. Quindi non è più il manager a dover controllare tutto manualmente: è l’agente AI che suggerisce continuamente come migliorare il sistema. Naturalmente resta sempre l’essere umano nel loop. Il manager deve approvare oppure no le modifiche. In un contesto enterprise estremamente regolamentato non puoi lasciare tutto completamente autonomo. Forse fra settant’anni, vedremo. Ma oggi il controllo umano resta fondamentale».