Data publikacji: 21 maja 2025 r.
Policybazaar to jedna z największych platform ubezpieczeniowych w Indiach, która ma ponad 97 milionów zarejestrowanych klientów. Około 80% klientów odwiedza platformę Policybazaar co miesiąc, dlatego ważne jest, aby zapewniała ona użytkownikom płynne działanie.
Zespół Policybazaar zauważył, że znaczna liczba użytkowników odwiedza ich witrynę wieczorami, po godzinach pracy zespołu pomocy dla klientów. Zamiast czekać na odpowiedzi do następnego dnia roboczego lub zatrudniać pracowników na nocną zmianę firma Policybazaar chciała wdrożyć rozwiązanie, które umożliwiłoby natychmiastową obsługę użytkowników.
Klienci mają wiele pytań na temat planów ubezpieczeniowych, ich działania i odpowiednich rozwiązań. Personalizowane pytania są trudne do rozwiązania za pomocą chatbotów opartych na regułach lub FAQ. Aby zaspokoić te potrzeby, zespół wdrożył spersonalizowaną pomoc z generatywną AI.
73%
Użytkownicy rozpoczęli i uczestniczyli w wartościowych rozmowach
2x
Wyższy współczynnik klikalności w porównaniu z poprzednim wezwaniem do działania
10x
Szybsze wnioskowanie dzięki WebGPU
Spersonalizowana pomoc dzięki Finova AI
Aby zapewnić spersonalizowane odpowiedzi i lepszą obsługę klienta w języku angielskim oraz w rodzinnym języku indyjskim niektórych użytkowników, firma Policybazaar stworzyła chatbota ubezpieczeniowego opartego na tekście i głosie o nazwie Finova AI.
Aby to osiągnąć, trzeba było wykonać wiele czynności. Obejrzyj szczegółowy przewodnik w ramach prezentacji „Praktyczne zastosowania sztucznej inteligencji w internecie” z Google I/O 2025.

1. Dane wejściowe użytkownika
Najpierw klient wysyła wiadomość do chatbota w postaci tekstu lub głosu. Jeśli użytkownik rozmawia z czatbotem, interfejs Web Speech API służy do konwertowania mowy na tekst.
2. Przetłumacz na angielski
Wiadomość klienta jest wysyłana do interfejsu Language Detector API. Jeśli wykryje język indyjski, dane wejściowe zostaną wysłane do interfejsu Translator API w celu przetłumaczenia na język angielski.
Oba te interfejsy API wykonują wnioskowanie po stronie klienta, co oznacza, że dane wejściowe użytkownika nie opuszczają urządzenia podczas tłumaczenia.
3. Wiadomość jest oceniana przez system wykrywania toksyczności
Do oceny, czy dane wejściowe klienta zawierają nieodpowiednie lub agresywne słowa, używany jest model wykrywania toksyczności po stronie klienta. W takim przypadku klient musi ponownie sformułować wiadomość. Jeśli wiadomość zawiera obraźliwe treści, nie zostanie przesłana do następnego kroku.
Pomaga to zachować szacunek w rozmowach, które zespół pomocy klienta może w razie potrzeby sprawdzić i nawiązać w nich dalszy kontakt.
4. Żądanie jest wysyłane do serwera
Przetłumaczone zapytanie jest następnie przekazywane do modelu po stronie serwera wytrenowanego na podstawie danych Policybazaar i zwraca odpowiedź na pytanie w języku angielskim.
Klienci mogą uzyskać spersonalizowane odpowiedzi i rekomendacje, a także odpowiedzi na bardziej złożone pytania dotyczące produktów.
5. Tłumaczenie na język klienta
Interfejs Translator API, używany do tłumaczenia początkowego zapytania, tłumaczy to zapytanie z powrotem na język klienta, który został wykryty przez interfejs Language Detector API. Te interfejsy API działają po stronie klienta, więc wszystkie te działania odbywają się na urządzeniu. Oznacza to, że klienci mogą uzyskać pomoc w swoim głównym języku, dzięki czemu chatbot jest dostępny dla osób, które nie posługują się językiem angielskim.
Architektura hybrydowa
Finova AI działa na platformach komputerowych i mobilnych. Do generowania wyników końcowych wykorzystuje wiele modeli. Policybazaar opracował architekturę hybrydową, w której część rozwiązania działa po stronie klienta, a część po stronie serwera.
Architekturę hybrydową warto wdrożyć z różnych powodów, niezależnie od tego, czy używasz tylko jednej czy wielu modeli.
- Oceń możliwości modelu po stronie klienta. W razie potrzeby użyj wyodrębniania po stronie serwera.
- Ograniczenia danych modelu: modele językowe mogą znacznie się różnić rozmiarem, co determinuje ich konkretne możliwości. Wyobraź sobie na przykład sytuację, w której użytkownik zadaje osobiste pytanie dotyczące usługi, którą świadczysz. Model po stronie klienta może być w stanie odpowiedzieć na pytanie, jeśli został przeszkolony w danym obszarze. Jeśli jednak nie uda się tego zrobić, możesz skorzystać z implementacji po stronie serwera, która jest trenowana na podstawie bardziej złożonego i większego zbioru danych.
- Pewność modelu: w modelach klasyfikacyjnych, takich jak moderowanie treści lub wykrywanie oszustw, model po stronie klienta może zwracać niższy wskaźnik ufności. W takim przypadku warto użyć wydajniejszego modelu po stronie serwera.
- Obsługa różnych funkcji urządzenia.
- Ograniczenia sprzętowe: w idealnej sytuacji funkcje AI byłyby dostępne dla wszystkich użytkowników. W rzeczywistości użytkownicy korzystają z różnych urządzeń, a nie wszystkie z nich obsługują wnioskowanie AI. Jeśli urządzenie nie obsługuje wnioskowania po stronie klienta, możesz skorzystać z serwera. Dzięki temu możesz zapewnić wysoką dostępność funkcji, a jednocześnie zminimalizować koszty i opóźnienia (o ile to możliwe).
- Ograniczenia sieci: jeśli użytkownik jest offline lub korzysta z niestabilnej sieci, ale ma w przeglądarce model w pamięci podręcznej, możesz uruchomić model po stronie klienta.
- Wymagania dotyczące ochrony prywatności.
- Twoja aplikacja może podlegać rygorystycznym wymaganiom dotyczącym prywatności. Jeśli na przykład część procesu wymaga weryfikacji tożsamości za pomocą danych osobowych lub wykrywania twarzy, użyj modelu po stronie klienta, aby przetworzyć dane na urządzeniu, a potem prześlij wynik weryfikacji (np. „przeszło” lub „nieprzeszło”) do modelu po stronie serwera.
W przypadku Policybazaar, gdzie wymagana była niska latencja, efektywność kosztowa i prywatność, zastosowano rozwiązanie po stronie klienta. W przypadku bardziej złożonych modeli wytrenowanych na podstawie niestandardowych danych zastosowano rozwiązanie po stronie serwera.
W tym artykule przyjrzymy się bliżej implementacji modelu po stronie klienta.
Wykrywanie toksycznego języka po stronie klienta
Po przetłumaczeniu wiadomości wiadomość klienta jest przekazywana do modelu wykrywania treści obraźliwych TensorFlow.js, który działa po stronie klienta na komputerach i urządzeniach mobilnych. Transkrypcja jest przekazywana pracownikom obsługi klienta do dalszego rozpatrzenia, dlatego należy unikać wulgaryzmów. Zanim zostaną wysłane na serwer, wiadomości są analizowane na urządzeniu użytkownika, a potem przekazywane do zespołu pomocy.
Dodatkowo analiza po stronie klienta umożliwia usunięcie informacji poufnych. Prywatność użytkowników jest dla nas priorytetem, a uzyskiwanie wniosków po stronie klienta pomaga to osiągnąć.
W przypadku każdej wiadomości należy wykonać kilka kroków. W przypadku wykrywania toksycznych treści oprócz wykrywania języka i tłumaczenia każda wiadomość wymagałaby kilkukrotnego połączenia z serwerem. Wykonując te zadania po stronie klienta, Policybazaar może znacznie ograniczyć przewidywane koszty funkcji.
Policybazaar przełączył się z WebGL na backend WebGPU (w przypadku obsługiwanych przeglądarek), a czas wnioskowania skrócił 10-krotnie. Użytkownicy szybciej otrzymywali informacje zwrotne dotyczące poprawiania wiadomości, co zwiększało zaangażowanie i zadowolenie klientów.
// Create an instance of the toxicity model.
const createToxicityModelInstance = async () => {
try {
//use WebGPU backend if available
if (navigator.gpu) {
await window.tf.setBackend('webgpu');
await window.tf.ready();
}
return await window.toxicity.load(0.9).then(model => {
return model;
}).catch(error => {
console.log(error);
return null;
});
} catch (er) {
console.error(er);
}
}
Wysokie zaangażowanie i współczynnik klikalności
Dzięki połączeniu wielu modeli z interfejsami API w witrynie firma Policybazaar mogła zapewnić klientom pomoc poza godzinami pracy. Wstępne wyniki ograniczonego wdrożenia tej funkcji wskazują na duże zaangażowanie użytkowników.
73% użytkowników, którzy otworzyli chatbota, prowadziło rozmowy z wieloma pytaniami trwające kilka minut, co spowodowało niski współczynnik odrzuceń. Co więcej, w ramach programu pilotażowego zaobserwowaliśmy 2 razy większą liczbę kliknięć przycisku wezwania do działania dotyczącego pomocy dla klientów, co wskazuje na skuteczną interakcję klientów z Finova w przypadku zapytań. Ponadto przejście na backend WebGPU do wykrywania toksycznych treści po stronie klienta przyspieszyło proces wnioskowania 10 razy, co przełożyło się na szybszy czas wyświetlania informacji zwrotnych od użytkowników.
73%
Użytkownicy rozpoczęli i uczestniczyli w wartościowych rozmowach
2x
Wyższy współczynnik klikalności w porównaniu z poprzednim wezwaniem do działania
10x
Szybsze wnioskowanie dzięki WebGPU
Zasoby
Jeśli chcesz rozszerzyć możliwości własnej aplikacji internetowej za pomocą AI po stronie klienta:
- Dowiedz się, jak wdrożyć wykrywanie toksycznych treści po stronie klienta.
- Zapoznaj się z kolekcją demonstracji AI po stronie klienta.
- Dowiedz się więcej o Mediapipe i Transformers.js. Możesz pracować z wstępnie przetrenowanymi modelami i integrować je w swojej aplikacji za pomocą JavaScriptu.
- Kolekcja AI w Chrome dla deweloperów zawiera zasoby, sprawdzone metody i aktualizacje dotyczące technologii AI w Chrome i poza nim.
- Obejmuje ono studium przypadku dotyczące tego, jak Policybazaar i JioHotstar korzystają z interfejsów Translator API i Language Detector API, aby tworzyć wielojęzyczne rozwiązania.
- Poznaj przykłady wykorzystania AI w internecie na konferencji I/O 2025.