Pubblicata: 21 maggio 2025
Policybazaar è una delle principali piattaforme assicurative in India, con oltre 97 milioni di clienti registrati. Circa l'80% dei clienti visita Policybazaar online ogni mese, pertanto è fondamentale che le sue piattaforme offrano esperienze utente fluide.
Il team di Policybazaar ha notato che un numero significativo di utenti visitava il sito web la sera, dopo l'orario di lavoro del team di assistenza clienti. Invece di dover attendere la giornata lavorativa successiva per ricevere risposte o assumere personale notturno, Policybazaar voleva implementare una soluzione per fornire un servizio immediato a questi utenti.
I clienti hanno molte domande sui piani assicurativi, sul loro funzionamento e su quale sia il piano più adatto alle loro esigenze. È difficile rispondere a domande personalizzate con un chatbot basato su regole o domande frequenti. Per soddisfare queste esigenze, il team ha implementato un'assistenza personalizzata con l'IA generativa.
73%
Gli utenti hanno avviato e partecipato a conversazioni di qualità
2x
Percentuale di clic superiore rispetto all'invito all'azione precedente
10x
Interruzione più rapida con WebGPU
Assistenza personalizzata con Finova AI
Per fornire risposte personalizzate e un'assistenza clienti migliore in inglese e nella lingua indiana madrelingua di alcuni utenti, Policybazaar ha creato un chatbot di assistenza per le assicurazioni basato su testo e voce chiamato Finova AI.
Per rendere possibile tutto ciò, sono stati necessari molti passaggi. Guarda una procedura dettagliata nel caso d'uso e strategie di AI web nel mondo reale di Google I/O 2025.

1. Input utente
Innanzitutto, il cliente invia un messaggio al chatbot, tramite testo o voce. Se parlano con il chatbot, l'API Web Speech viene utilizzata per convertire la voce in testo.
2. Traduci in italiano
Il messaggio del cliente viene inviato all'API Language Detector. Se l'API rileva una lingua indiana, l'input viene inviato all'API Translator per la traduzione in inglese.
Entrambe queste API eseguono l'inferenza lato client, il che significa che l'input dell'utente non viene visualizzato sul dispositivo durante la traduzione.
3. Il messaggio viene valutato con il rilevamento della tossicità
Viene utilizzato un modello di rilevamento della tossicità lato client per valutare se i dati inseriti dal cliente contengono parole inappropriate o aggressive. In questo caso, al cliente viene chiesto di riformulare il messaggio. Il messaggio non passerà al passaggio successivo se contiene linguaggio offensivo.
In questo modo, il personale dell'assistenza clienti può esaminare le conversazioni rispettose e, se necessario, eseguire il follow-up.
4. La richiesta viene inviata al server
La query tradotta viene poi passata a un modello lato server addestrato sui dati di Policybazaar e restituisce una risposta in inglese alla domanda.
I clienti possono ricevere risposte e consigli personalizzati, nonché risposte a domande più complesse sui prodotti.
5. Tradurre nella lingua del cliente
L'API Translator, utilizzata per tradurre la query iniziale, la traduce nuovamente nella lingua del cliente, come rilevato dall'API Language Detector. Anche queste API vengono eseguite lato client, quindi tutte le operazioni vengono eseguite sul dispositivo. Ciò significa che i clienti possono ricevere assistenza nella loro lingua principale, il che rende il chatbot accessibile a chi non parla inglese.
Architettura ibrida
Finova AI, che funziona sia su piattaforme desktop che mobile, si basa su più modelli per generare i risultati finali. Policybazaar ha creato un'architettura ibrida, in cui parte della soluzione viene eseguita lato client e parte lato server.
Esistono diversi motivi per cui potresti voler implementare un'architettura ibrida, indipendentemente dal fatto che tu utilizzi uno o più modelli.
- Valutare la funzionalità del modello lato client. Riprendi il lato server se necessario.
- Limitazioni dei dati del modello: i modelli linguistici possono variare notevolmente in termini di dimensioni, il che determina anche funzionalità specifiche. Ad esempio, immagina una situazione in cui un utente pone una domanda personale relativa a un servizio che offri. Un modello lato client potrebbe essere in grado di rispondere alla domanda, se è stato addestrato in quell'area specifica. Tuttavia, se non è possibile, puoi eseguire il fallback a un'implementazione lato server, addestrata su un set di dati più complesso e più grande.
- Confidenza del modello: nei modelli di classificazione, come la moderazione dei contenuti o il rilevamento delle frodi, un modello lato client potrebbe restituire un punteggio di confidenza inferiore. In questo caso, ti consigliamo di utilizzare un modello lato server più potente.
- Supporta varie funzionalità dei dispositivi.
- Limitazioni hardware: idealmente, le funzionalità di IA dovrebbero essere accessibili a tutti gli utenti. In realtà, gli utenti utilizzano una vasta gamma di dispositivi e non tutti supportano l'inferenza IA. Se un dispositivo non è in grado di supportare l'inferenza lato client, puoi ricorrere al server. Con questo approccio, puoi rendere la tua funzionalità altamente accessibile, riducendo al minimo i costi e la latenza, se possibile.
- Limitazioni della rete: se l'utente è offline o su reti instabili, ma ha un modello memorizzato nella cache nel browser, puoi eseguire il modello lato client.
- Requisiti relativi alla privacy.
- Potresti avere requisiti di privacy rigorosi per la tua applicazione. Ad esempio, se parte del flusso utente richiede la verifica dell'identità con informazioni personali o il rilevamento del volto, scegli un modello lato client per elaborare i dati sul dispositivo e invia l'output della verifica (ad esempio Pass o Non superato) al modello lato server per i passaggi successivi.
Per Policybazaar, dove erano richieste bassa latenza, efficienza in termini di costi e privacy, è stata utilizzata una soluzione lato client. Se erano necessari modelli più complessi addestrati su dati personalizzati, è stata utilizzata una soluzione lato server.
Qui di seguito esaminiamo più da vicino l'implementazione del modello lato client.
Rilevamento della tossicità lato client
Dopo la traduzione dei messaggi, il messaggio del cliente viene passato al modello di rilevamento della tossicità di TensorFlow.js, che viene eseguito lato client su computer e dispositivi mobili. Poiché la trascrizione viene inoltrata al personale di assistenza umana per il follow-up, è importante evitare un linguaggio scurrile. I messaggi vengono analizzati sul dispositivo dell'utente prima di essere inviati al server, dove vengono esaminati dal personale di assistenza umana finale.
Inoltre, l'analisi lato client consentiva la rimozione di informazioni sensibili. La privacy degli utenti è una priorità di primo livello e l'inferenza lato client contribuisce a renderla possibile.
Per ogni messaggio sono necessari diversi passaggi. Con il rilevamento della tossicità, oltre al rilevamento e alla traduzione della lingua, ogni messaggio richiederebbe più viaggi di andata e ritorno al server. Se esegui queste attività lato client, Policybazaar potrebbe limitare notevolmente il costo previsto della funzionalità.
Policybazaar è passato da WebGL a un backend WebGPU (per i browser supportati) e il tempo di inferenza è migliorato di 10 volte. Gli utenti hanno ricevuto un feedback più rapido per rivedere il messaggio, il che ha portato a un maggiore coinvolgimento e soddisfazione del cliente.
// Create an instance of the toxicity model.
const createToxicityModelInstance = async () => {
try {
//use WebGPU backend if available
if (navigator.gpu) {
await window.tf.setBackend('webgpu');
await window.tf.ready();
}
return await window.toxicity.load(0.9).then(model => {
return model;
}).catch(error => {
console.log(error);
return null;
});
} catch (er) {
console.error(er);
}
}
Coinvolgimento e percentuale di clic elevati
Combinando più modelli con API web, Policybazaar ha esteso con successo l'assistenza clienti dopo l'orario di apertura. I primi risultati di una release limitata di questa funzionalità hanno indicato un elevato coinvolgimento degli utenti.
Il 73% degli utenti che hanno aperto il chatbot ha interagito in conversazioni con più domande che duravano diversi minuti, con un tasso di abbandono basso. Inoltre, il programma pilota ha dimostrato un tasso di clic due volte superiore per questo nuovo invito all'azione di assistenza ai clienti, mostrando un'interazione efficace dei clienti con Finova per le loro richieste. Inoltre, il passaggio a un backend WebGPU per il rilevamento della tossicità lato client ha accelerato l'inferenza di 10 volte, con un conseguente feedback più rapido degli utenti.
73%
Gli utenti hanno avviato e partecipato a conversazioni di qualità
2x
Percentuale di clic superiore rispetto all'invito all'azione precedente
10x
Interruzione più rapida con WebGPU
Risorse
Se ti interessa estendere le funzionalità della tua app web con l'IA lato client:
- Scopri come implementare il rilevamento della tossicità lato client.
- Esamina una raccolta di demo di AI lato client.
- Scopri di più su Mediapipe e Transformers.js. Puoi utilizzare modelli preaddestrati e integrarli nella tua applicazione con JavaScript.
- La raccolta di risorse per l'AI su Chrome per gli sviluppatori fornisce risorse, best practice e aggiornamenti sulle tecnologie alla base dell'IA su Chrome e non solo.
- È incluso il case study su come Policybazaar e JioHotstar utilizzano le API Translator e Language Detector per creare esperienze multilingue.
- Scopri di più su esempi reali di IA web alla conferenza I/O 2025.