Per colmare il gap di fiducia nell’AI i leader della CX hanno a disposizione sette leve
Per il momento, ciò che i clienti sanno sull’intelligenza artificiale sembra entusiasmarli: secondo una ricerca, il 70% di loro crede che abbia il potenziale per offrire risposte più rapide e un servizio migliore
Cristina Fonseca
a cura di Cristina Fonseca, Head of AI di Zendesk
Il potenziale dell’AI per migliorare l’esperienza dei clienti è innegabile, eppure c’è chi ha ancora dei dubbi. I leader della CX devono quindi affrontare una sfida importante: fare sì che i clienti abbiano fiducia nell’AI. Le ragioni sono comprensibili: l’intelligenza artificiale è uno strumento potente, molto tecnico e di difficile comprensione; basta il suo nome a scatenare il timore dell’obsolescenza umana… o quantomeno la paura di finire intrappolati in una discussione infinita e inutile con un chatbot. Eppure, con le giuste precauzioni, le tecnologie apporteranno benefici immensi sia ai clienti che alle aziende. Per colmare il gap di fiducia dei clienti, i leader devono assicurare che ogni implementazione di AI avvenga in maniera responsabile, trasparente e con uno scopo ben preciso. Perché? La fiducia va conquistata. Può richiedere del tempo. E una volta conquistata, la si può perdere in un attimo se gli strumenti di AI utilizzati forniscono informazioni errate, non proteggono i dati personali o, più semplicemente, offrono un’esperienza mediocre. È difficile sbarazzarsi di una cattiva reputazione. Sottovalutando l’importanza della fiducia dei clienti nell’AI e nella capacità delle aziende di utilizzarla, si rischia di compromettere le relazioni costruite con i consumatori e la loro percezione dell’utilità degli strumenti tecnologici. Il delicato equilibrio tra rischi e opportunità offerti dall’AI Per il momento, ciò che i clienti sanno sull’AI sembra entusiasmarli. Secondo una ricerca, il 70% dei clienti crede già che l’intelligenza artificiale abbia il potenziale per offrire risposte più rapide e un servizio clienti migliore. Ciononostante, un approccio sbagliato può velocemente trasformare questo ottimismo in frustrazione. La gente odia i chatbot che non funzionano a dovere. Nessuno vuole sacrificare la fiducia dei clienti nel nome dell’efficienza o a causa di un’eccessiva automazione. L’introduzione di ogni nuova tecnologia dovrebbe prevedere un processo in più fasi. Per iniziare, è necessario comprendere e risolvere le preoccupazioni dei clienti in merito a trasparenza, privacy e sicurezza dei dati e performance. Occorre comunicare in maniera chiara i propri piani e politiche, indicare le best practice seguite e rimanere aperti a feedback e cambiamenti. L’AI non può e non dovrebbe fare tutto. È bene focalizzare l’attenzione sulle aree in cui l’AI può effettivamente migliorare i processi, ad esempio accorciando i tempi di attesa o indicando ai clienti gli articoli di assistenza più rilevanti. La maggior parte dei clienti vuole semplicemente ottenere assistenza il più rapidamente possibile. Se l’AI può contribuire a soddisfare tale richiesta, vuol dire che è lo strumento adatto. Se invece non è in grado di migliorare l’esperienza del cliente o, peggio ancora, rischia di peggiorarla, vuol dire che si tratta di un lavoro per un agente umano. Sono sette i consigli che possono aiutare i leader della CX a colmare il gap di fiducia nell’AI.
Le esperienze di qualità superiore hanno inizio con una AI che comprende i clienti
Se l’AI non viene addestrata con dati specifici per la CX, non sarà in grado di comprendere, né tantomeno risolvere, le domande più frequenti dei clienti. Per aver fiducia nell’AI, i clienti devono credere che sia effettivamente in grado di comprenderli e aiutarli. In Zendesk, abbiamo addestrato la nostra soluzione di AI basandoci su miliardi di interazioni con i clienti, al fine di assicurare una comprensione profonda di ciascuna richiesta, andando oltre il linguaggio utilizzato per capire anche il sentiment e lo scopo alla base della domanda.
L’automazione non deve essere “tutto o niente”
Il primo passaggio di una strategia di AI consiste nel decidere cosa automatizzare — perché non è necessario automatizzare ogni attività. È consigliabile iniziare dalle domande più semplici, in modo da guadagnarsi la fiducia dei clienti e del team. Ad esempio, si può partire con richieste sullo stato degli ordini o della spedizione, per poi passare a problematiche più complesse, come cancellazioni e rimborsi.
Ricorrere tempestivamente all’escalation
Se è importante che l’AI comprenda i clienti, è altrettanto importante che riconosca i propri limiti e che ricorra all’escalation con l’inoltro a un agente umano ogni volta che serve. Fornendo informazioni rilevanti, come la cronologia degli ordini e i dettagli dell’account, l’AI aiuta l’agente a velocizzare la pratica ed evita che il cliente debba fornire di nuovo le stesse informazioni.
Utilizzare una scala di livelli di certezza per maggiore trasparenza
Non tutte le previsioni dell’AI sono uguali: alcune sono elaborate con un più alto livello di certezza. Dal momento che tali previsioni possono influenzare le azioni dei clienti, è necessario comunicare in maniera trasparente il livello di certezza associato a ogni risposta elaborata dall’AI. Poco importa se l’AI fornisce risposte esatte nell’80% dei casi: verrà comuqnue ricordata per le rare volte in cui sbaglia. Ecco perché la trasparenza è fondamentale per conquistarsi la fiducia a lungo termine da parte di amministratori, agenti e, in ultima analisi, clienti.
Coinvolgere gli agenti umani
Quando il livello di certezza è basso, l’AI dovrebbe subito coinvolgere un agente umano. La supervisione umana, infatti, è fondamentale per garantire un’AI accurata, sicura e oggettiva. Secondo una nostra ricerca, l’81% dei clienti dichiara che la possibilità di accedere a un agente umano è fondamentale per mantenere alta la fiducia nel servizio clienti basato sull’AI.
Offrire sicurezza e privacy
Privacy e sicurezza dei dati sono aspetti critici nel mantenere un buon livello di fiducia. Tuttavia, secondo una nostra ricerca, solo il 21% afferma senza riserve che le aziende stiano facendo abbastanza per proteggere i dati. È un dato preoccupante. In Zendesk, gestiamo miliardi di interazioni contenenti dati sensibili, rispettando gli alti standard imposti dai nostri clienti. Sviluppiamo internamente i nostri modelli e ci assicuriamo che nessun dato esca dalle infrastrutture di Zendesk.
Creare sistemi di salvaguardia aggiuntivi per l’AI generativa
I modelli di AI generativa possono essere molto utili per dare alle interazioni un tocco più umano, ma possono anche fornire informazioni fuorvianti o inaccurate. Per evitare di compromettere la fiducia o la reputazione del brand, le aziende devono gestire con molta attenzione queste tecnologie in continua evoluzione, facendo affidamento su sistemi aggiuntivi di salvaguardia, compresa la supervisione umana, in modo da continuare a garantire risposte accurate.