Home Intelligenza Artificiale Avaya: la Gen AI rivoluzionerà la Customer Experience

Avaya: la Gen AI rivoluzionerà la Customer Experience

Secondoo Avaya, la Gen AI rivoluzionerà la Customer Experience (CX). Le interfacce AI multimodali renderanno sempre più sinergica l’interazione uomo-macchina

Tradizionalmente, siamo abituati a interagire con la tecnologia attraverso comandi rigidi e ben definiti, utilizzati per completare compiti ben precisi. Nel caso del servizio clienti, questo si traduceva nei classici sistemi a risposta vocale interattiva (IVR), caratterizzati da uno schema predefinito nel quale i clienti potevano navigare impartendo comandi tramite la tastiera alfanumerica per ottenere le informazioni desiderate o per eseguire una determinata transazione. Lo scopo di questi servizi era permettere all’utente di completare la sua richiesta in modalità self e, in un certo senso, la rigidità era necessaria per garantire di completare l’operazione richiesta ma rendeva l’esperienza meno accattivante. Di contro, lasciare maggiore libertà al cliente spesso voleva dire non riuscire a comprendere le sue richieste o le informazioni che era necessario fornire portando ad una esperienza altrettanto frustrante.

Per queste ragioni, per quanto il settore della CX si sia evoluto, questa modalità tradizionale di interazione non è cambiata molto. Abbiamo assistito all’implementazione di significative innovazioni, ma il modo in cui sono state impiegate continua a prevedere che la maggior parte dei flussi di lavoro restino legati alle interfacce tecnologiche classiche con un pre-disegno rigido della stessa.

La buona notizia è che questa situazione potrebbe cambiare significativamente con l’avvento delle interfacce di intelligenza generativa (Gen AI) multimodali, in grado non solo di comprendere gli input provenienti da diversi canali e di ricavarne l’intento, ma anche di generare contenuti e risultati pertinenti per l’utente attraverso di essi.

Perché questa evoluzione è cruciale? Analizziamo il problema, prendendo come esempio l’utilizzo dell’IA conversazionale. Questa tecnologia ha promesso un nuovo paradigma attraverso il quale i clienti possono semplicemente specificare l’intent, ovvero l’intenzione, l’obiettivo dell’interazione – utilizzando linguaggio naturale e senza che al sistema sia in precedenza fornito ogni singolo dettaglio su come comprendere e raggiungere il risultato desiderato. Il bot vocale o il chat bot riconoscerà tale intenzione e completerà il compito desiderato. Questo permette di eliminare la necessità di una navigazione complessa attraverso la struttura “ad albero” dell’IVR, il che è ovviamente preferibile.

Tuttavia, anche l’IA richiede degli accorgimenti in fase di addestramento e tuning per cui, l’IA conversazionale da sola non è riuscita a soddisfare le comuni aspettative che prefiguravano una riduzione dell’impegno dei clienti e un miglioramento della qualità delle esperienze. In realtà, nella maggior parte dei casi, è diventata solo un’altra tecnologia basata su comandi, che replica l’elevato impegno e le cattive pratiche associate agli IVR tradizionali.

Il prossimo passo della Gen AI

Con l’emergere della Gen AI, abbiamo visto crescere la speranza di vedere significativi miglioramenti nella CX per quanto riguarda il self-service: Le sue spettacolari capacità conversazionali e l’abilità di gestire problemi complessi possono finalmente umanizzare le conversazioni dei clienti con i bot vocali e i chat bot e inoltre risolvere definitivamente il problema della comprensione e definizione dell’intento, anche se solo per i canali vocali e testuali.

Ma cosa succederebbe se potessimo raggiungere la complessità di una vera conversazione umana, attraverso molteplici livelli e modalità diverse di interazione? Oltre che verbalmente, le persone comunicano con gesti, espressioni facciali, movimenti oculari e altro ancora. L’intelligenza artificiale generativa, nella sua forma attuale, non è in grado di eguagliare la complessità di questo tipo di comunicazione, ma con l’avvento dell’intelligenza artificiale multimodale, forse ci stiamo avvicinando a questo traguardo.

Con i Large Language Model (LLM) multimodali, i tradizionali bot vocali e i chat bot si evolveranno in un nuovo tipo di interfaccia utente (UI): gli avatar multimodali del servizio clienti. Un avatar di intelligenza artificiale è un personaggio virtuale simile a un essere umano creato con la generazione da testo a video. Gli avatar saranno in grado di elaborare non solo voce o testo, ma anche immagini, gesti, espressioni facciali e movimenti oculari. In futuro, verranno aggiunte ulteriori capacità utilizzando le apparecchiature aptiche e i dati biosensoriali. Oltre alla capacità di produrre output multimodali corrispondenti, gli avatar saranno anche in grado di offrire conversazioni bidirezionali simultanee, a differenza delle interazioni basate su richiesta/risposta fornite dai bot tradizionali.

Gli avatar multimodali supereranno nettamente gli attuali bot nella comprensione delle intenzioni e delle emozioni dei clienti, riducendo l’ambiguità e offrendo un’iper-personalizzazione, grazie alla capacità di immedesimarsi nello stato emotivo del cliente, non solo attraverso le parole e le frasi, ma anche attraverso le espressioni facciali, la postura, le sfumature del linguaggio e altro ancora. Le interfacce utente alimentate dall’intelligenza artificiale multimodale non determineranno una rivoluzione solo nelle funzioni rivolte ai clienti ma anche per gli agenti e i dipendenti, infatti ci aspettiamo di vedere un impatto simile nell’area degli assistenti/agenti basati sull’IA, che stanno già guadagnando popolarità.

L’aspetto davvero importante è che non stiamo parlando di un futuro lontano. Gartner prevede che le interfacce utente multimodali diventeranno una caratteristica standard degli assistenti virtuali entro i prossimi due anni.

Realizzare in concreto la Gen AI multimodale

Silvana Suriano
Silvana Suriano

Nonostante queste fantastiche capacità, le interfacce utente multimodali non rappresenteranno una soluzione magica per tutto, e le soluzioni basate su queste tecnologie non saranno prive di rischi esattamente come avvenuto per la Gen AI che ha posto problemi di etica, di proprietà intellettuale e altro che hanno portato , specialmente in Europa a precisi interventi da parte del legislatore. Ad esempio, l’implementazione di un’interfaccia utente basata sulla voce non sarebbe utile in ambienti affollati come gli aeroporti o gli uffici open space. Inoltre, la potenza della Gen AI multimodale potrebbe illudere i clienti creando un’aspettativa di prestazioni simili a quelle umane da parte delle soluzioni self-service, ad esempio credendole capaci di mostrare un pensiero critico. Queste aspettative non realizzabili possono facilmente portare a frustrazione, perdita di fiducia e peggio. Inoltre, un maggior numero di modalità di input da parte dell’utente può esporre a un maggior numero di fonti di dati,questo può migliorare le capacità della soluzione, ma aumenta anche i rischi per la privacy e la sicurezza degli stessi.

Per mitigare queste criticità, le aziende dovrebbero selezionare attentamente i casi d’uso in cui le interfacce utente multimodali possono apportare evidenti miglioramenti all’esperienza del cliente. In alcuni casi, le tradizionali interfacce utente unimodali potrebbero essere ancora vantaggiose, quindi vale la pena valutare attentamente lo scenario di riferimento. Le aziende dovrebbero anche essere trasparenti sull’uso dell’IA multimodale e informare i clienti sulle sue capacità e sui suoi limiti. Va da sé, come già evidenziato, che un’attenzione particolare va sempre riservata alla sicurezza e alla privacy dei dati.

In effetti, ad un livello strategico più elevato, le implementazioni di IA multimodale di maggior successo potrebbero basarsi su una comprensione approfondita dell’interazione umana. Questo implica l’utilizzo di conoscenze approfondite sulle scienze comportamentali e cognitive, sulla psicologia e sulla sociologia, conoscenze che potrebbero rivelarsi più importanti della programmazione e di altre conoscenze informatiche.

L’evoluzione dell’interazione uomo-macchina dalle interfacce a righe di comando alle interfacce utente multimodali potrebbe portare a una vera e propria sinergia senza precedenti tra esseri umani e macchine, un rapporto che richiede un minimo impegno da parte dell’utente e che offre interazioni simili a quelle umane, empatiche e basate sui risultati. Se e quando ciò avverrà, la CX ne sarà l’ovvio beneficiario e il risultato sarà a dir poco rivoluzionario.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php