Se c’è un ambito dove già oggi l’IA eccelle è quello della customer care. I Large language model (Llm) si trovano perfettamente a loro agio in questi ruoli: riescono a trovare rapidamente la risposta più adatta all’interno della knowledge base aziendale.
E sono anche in grado di interagire in più lingue. Qualcuno potrà obiettare che si diceva lo stesso anche dei chatbot, e tutti sappiamo come è andata a finire. Ma la differenza fra un comune chatbot e un assistente basato su IA è enorme. I primi, infatti, sono sistemi piuttosto “stupidi”: ragionano sulla base di parole chiave, rimandando a risposte pre-codificate. Al contrario, gli assistenti virtuali fanno leva su algoritmi di machine learning e sugli Llm per comprendere la domanda, il contesto e poi derivare una risposta personalizzata. Il tutto interagendo in linguaggio naturale. Non sono ancora perfetti, e al momento non possono sostituire interamente le persone che si occupano di assistenza, ma possono aiutare moltissimo a ridurre il carico di lavoro. Gestendo in autonomia le richieste più semplici e dando suggerimenti agli operatori quando la questione è più complicata.
IA per customer care: gli assistenti degli assistenti
Quando si pensa all’IA come supporto agli operatori dei call center o dei centri che si occupano di supporto tecnico viene naturale pensare a sistemi intelligenti che gestiscono interamente la comunicazione. In realtà, sebbene sia possibile, non è sempre così e nella maggior parte dei casi sono sempre presenti degli operatori umani che supervisionano e intervengono quando necessario.
Certo, la prima parte della chiamata di assistenza può anche essere gestita interamente dall’IA, che individua il problema, ne analizza il contesto e – se il quesito è molto semplice – risponde in automatico, scalando il problema verso le persone solo se non è in grado di risolvere il problema. È il tipico caso degli assistenti dedicati al mondo consumer. Non tutte le richieste sono così semplici, né tutte le imprese che si occupano di assistenza desiderano delegare tutto alle macchine. In molti casi, l’IA suggerisce analizza il problema e suggerisce all’operatore come rispondere. Quest’ultimo potrà decidere se accogliere il suggerimento o intervenire personalmente. Se necessario, potrà prendere il controllo della comunicazione e chiedere ulteriori informazioni al cliente. E, una volta pronta la risposta, potrà chiedere all’IA di adattare il tone of voice, oppure di tradurla, se il contatto parla un’altra lingua.
Un simile approccio è per esempio adottato da Covisian, società specializzata in supporto al cliente che ha scelto di affiancare l’IA ai suoi operatori. Che avranno il delicato compito di intuire il livello di soddisfazione dell’utente e capire se la chiamata sta andando per il verso giusto.
Altre realtà che adotta un simile approccio è Avaya con i suoi agenti virtuali, che sono in grado di gestire la fase iniziale delle chiamate e poi passare la palla a operatori umani nel caso non si riesca a risolvere rapidamente la questione.
In entrambi i casi, due sono i vantaggi principali: prima di tutto gli agenti umani saranno in grado di gestire più chiamate in contemporanea, migliorando la produttività. Il secondo vantaggio è il fatto che gli operatori grazie all’IA saranno molto più efficaci e potranno concentrare la loro attenzione sui problemi più complessi, delegando all’IA le risposte di routine, che possono essere tranquillamente gestite da un bot.
Anche Salesforce, colosso nell’ambito dei Crm, offre delle soluzioni basate su IA per i contact center. Al centro, l’IA Einstein integrata nei prodotti dell’azienda, che si differenzia anche perché include funzioni per sfruttare l’IA non solo per suggerire le risposte, ma anche per aggiornare costantemente la knowledge base dopo ogni interazione, un compito solitamente affidato ad agenti umani impegnati nella customer care
Allucinazioni e assistenza clienti
Come noto, uno dei principali problemi dei sistemi di intelligenza artificiale generativa è quello delle allucinazioni. A tutti gli effetti, gli Llm tendono a inventarsi le risposte. Cosa che può trarre in inganno tanti, perché la forma è perfetta. Si potrebbero citare vari casi di seri problemi causati proprio da persone che si sono fidate troppo dell’IA, ma ci limitiamo in questa sede a quanto accaduto a due avvocati inglesi che nel 2023 si sono fatti aiutare da ChatGPT per creare documenti da utilizzare in un processo. E non hanno verificato quanto generato. Il problema è che l’IA di OpenAI si è letteralmente inventata dei precedenti penali, ovviamente inesistenti. Creando non pochi problemi e imbarazzi ai due avvocati.
Alla luce di questo può sembrare prematuro introdurre l’IA nella customer care, ma stanno emergendo delle soluzioni per limitare questi problemi e assicurare risposte correte. La tecnologia in questione si chiama RAG – Retrieval-Augmented Generation. La Rag è una tecnica di intelligenza artificiale che combina il recupero di informazioni con la generazione di testo per migliorare la qualità delle risposte fornite dai modelli di linguaggio. Quando viene posta una domanda, il sistema di retrieval cerca nei database o documenti informazioni rilevanti. Che vengono poi poi utilizzate dal modello di generazione per creare risposte più accurate e dettagliate. La RAG migliora l’accuratezza delle risposte grazie all’accesso a dati aggiornati e specifici, rendendola utile in applicazioni come l’assistenza clienti, i motori di ricerca e i sistemi di raccomandazione. Non è perfetta, e si suggerisce sempre un controllo umano, ma è in grado di ridurre drasticamente le allucinazioni alle quali sono soggetti i vari sistemi di IA.