Policybazaar는 웹 AI를 통해 영업시간 외 고객 지원을 확대했으며 73% 의 사용자가 양질의 상호작용을 경험했습니다.

Rishabh Mehrotra
Rishabh Mehrotra
Swetha Gopalakrishnan
Swetha Gopalakrishnan

게시일: 2025년 5월 21일

Policybazaar는 등록된 고객이 9, 700만 명이 넘는 인도 최고의 보험 플랫폼 중 하나입니다. Policybazaar의 약 80% 의 고객이 매달 온라인으로 방문하므로 플랫폼에서 원활한 사용자 환경을 제공하는 것이 중요합니다.

Policybazaar팀은 고객 지원팀의 근무 시간이 지난 저녁에 상당수의 사용자가 웹사이트를 방문한다는 사실을 발견했습니다. Policybazaar는 사용자가 다음 근무일까지 기다리거나 야간 직원을 고용하지 않고도 즉시 서비스를 제공할 수 있는 솔루션을 구현하고자 했습니다.

고객은 보험 계획, 작동 방식, 필요에 맞는 계획에 관해 많은 질문을 합니다. 맞춤설정된 질문은 FAQ 또는 규칙 기반 챗봇으로 처리하기 어렵습니다. 이러한 요구사항을 해결하기 위해 생성형 AI를 사용한 맞춤 지원을 구현했습니다.

73%

사용자가 양질의 대화를 시작하고 참여함

2

이전 클릭 유도 문구에 비해 클릭률이 높음

10x

WebGPU를 통한 더 빠른 추론

Finova AI의 맞춤 지원

Policybazaar는 영어와 일부 사용자의 모국어인 인도 언어로 맞춤설정된 답변과 더 나은 고객 지원을 제공하기 위해 Finova AI라는 텍스트 및 음성 기반 보험 어시스턴트 챗봇을 구축했습니다.

이를 위해 여러 단계를 거쳤습니다. Google I/O 2025의 실제 웹 AI 사용 사례 및 전략 강연에서 자세한 워크스루를 확인하세요.

이 다이어그램은 Finova AI 구현의 기본이 되는 대략적인 단계를 보여줍니다.

1. 사용자 입력

먼저 고객이 텍스트 또는 음성으로 챗봇에 메시지를 보냅니다. 사용자가 챗봇에 말하면 Web Speech API가 음성을 텍스트로 변환하는 데 사용됩니다.

2. 영어로 번역

고객의 메시지가 Language Detector API로 전송됩니다. API가 인도 언어를 감지하면 입력 내용이 Translator API로 전송되어 영어로 번역됩니다.

두 API 모두 클라이언트 측에서 추론을 실행하므로 번역 중에 사용자 입력이 기기 외부로 전송되지 않습니다.

3. 메시지가 악성 텍스트 감지로 평가됨

클라이언트 측 독성 감지 모델은 고객의 입력에 부적절하거나 공격적인 단어가 포함되어 있는지 평가하는 데 사용됩니다. 이 경우 고객에게 메시지를 다시 작성하라는 메시지가 표시됩니다. 악성 언어가 포함된 메시지는 다음 단계로 진행되지 않습니다.

이렇게 하면 고객 지원 담당자가 필요한 경우 검토하고 후속 조치를 취할 수 있도록 정중한 대화를 유지하는 데 도움이 됩니다.

4. 서버로 요청 전송

그런 다음 번역된 쿼리가 Policybazaar의 데이터로 학습된 서버 측 모델에 전달되고 질문에 대한 영어 응답을 반환합니다.

고객은 맞춤형 답변과 추천을 받을 수 있으며 제품에 관한 보다 복잡한 질문에 대한 답변도 얻을 수 있습니다.

5. 고객의 언어로 번역

초기 쿼리를 번역하는 데 사용되는 Translator API는 Language Detector API에서 감지한 대로 쿼리를 고객의 언어로 다시 번역합니다. 이러한 API는 클라이언트 측에서 실행되므로 모든 작업이 기기에서 이루어집니다. 즉, 고객이 모국어로 지원을 받을 수 있으므로 영어가 아닌 언어를 사용하는 사용자도 챗봇을 이용할 수 있습니다.

하이브리드 아키텍처

데스크톱 및 모바일 플랫폼에서 모두 실행되는 Finova AI는 여러 모델을 사용하여 최종 결과를 생성합니다. Policybazaar는 솔루션의 일부가 클라이언트 측에서 실행되고 일부가 서버 측에서 실행되는 하이브리드 아키텍처를 빌드했습니다.

하나의 모델만 사용하든 여러 모델을 사용하든 하이브리드 아키텍처를 구현하는 데는 여러 가지 이유가 있습니다.

  • 클라이언트 측 모델 기능을 평가합니다. 필요한 경우 서버 측으로 대체합니다.
    • 모델 데이터 제한사항: 언어 모델은 크기가 크게 다를 수 있으며 이는 특정 기능도 결정합니다. 예를 들어 사용자가 제공하는 서비스와 관련된 개인적인 질문을 하는 상황을 생각해 보세요. 클라이언트 측 모델이 해당 특정 영역에서 학습된 경우 질문에 답변할 수 있습니다. 하지만 불가능하면 더 복잡하고 더 큰 데이터 세트에서 학습된 서버 측 구현으로 대체할 수 있습니다.
    • 모델 신뢰도: 콘텐츠 검토 또는 사기 감지와 같은 분류 모델에서 클라이언트 측 모델은 더 낮은 신뢰도 점수를 출력할 수 있습니다. 이 경우 더 강력한 서버 측 모델로 대체하는 것이 좋습니다.
  • 다양한 기기 기능을 지원합니다.
    • 하드웨어 제한사항: 모든 사용자가 AI 기능에 액세스할 수 있는 것이 이상적입니다. 실제로 사용자는 다양한 기기를 사용하며 모든 기기가 AI 추론을 지원하는 것은 아닙니다. 기기가 클라이언트 측 추론을 지원할 수 없는 경우 서버로 대체할 수 있습니다. 이 접근 방식을 사용하면 기능에 대한 액세스 가능성을 높이면서 가능하면 비용과 지연 시간을 최소화할 수 있습니다.
    • 네트워크 제한사항: 사용자가 오프라인 상태이거나 불안정한 네트워크에 있지만 브라우저에 캐시된 모델이 있는 경우 모델을 클라이언트 측에서 실행할 수 있습니다.
  • 개인 정보 보호 요구사항
    • 애플리케이션에 엄격한 개인 정보 보호 요구사항이 있을 수 있습니다. 예를 들어 사용자 흐름의 일부에 개인 정보 또는 얼굴 감지와 함께 본인 인증이 필요한 경우 클라이언트 측 모델을 선택하여 기기에서 데이터를 처리하고 다음 단계를 위해 인증 출력 (예: 통과 또는 실패)을 서버 측 모델로 전송합니다.

지연 시간, 비용 효율성, 개인 정보 보호가 필요한 Policybazaar의 경우 클라이언트 측 솔루션이 사용되었습니다. 맞춤 데이터로 학습된 더 복잡한 모델이 필요한 경우 서버 측 솔루션이 사용되었습니다.

여기서는 클라이언트 측 모델 구현을 자세히 살펴봅니다.

클라이언트 측 악성 콘텐츠 감지

메시지가 번역된 후 고객의 메시지는 데스크톱과 모바일에서 클라이언트 측에서 실행되는 TensorFlow.js 독성 감지 모델에 전달됩니다. 스크립트는 후속 조치를 위해 사람 지원 담당자에게 전달되므로 유해한 표현을 피하는 것이 중요합니다. 메시지는 사용자의 기기에서 분석된 후 서버로 전송되고, 마지막으로 사람의 지원을 받습니다.

또한 클라이언트 측 분석을 통해 민감한 정보를 삭제할 수 있었습니다. 사용자 개인 정보 보호는 최우선 과제이며 클라이언트 측 추론은 이를 가능하게 합니다.

메시지마다 몇 가지 단계가 필요합니다. 독성 감지를 사용하면 언어 감지 및 번역 외에도 각 메시지에 대해 서버에 여러 번 왕복해야 합니다. 이러한 작업을 클라이언트 측에서 실행함으로써 Policybazaar는 예상되는 기능 비용을 크게 제한할 수 있었습니다.

Policybazaar는 지원되는 브라우저의 경우 WebGL에서 WebGPU 백엔드로 전환했으며, 추론 시간이 10배 향상되었습니다. 사용자는 메시지를 수정할 수 있는 의견을 더 빠르게 받아 참여도와 고객 만족도가 높아졌습니다.

// Create an instance of the toxicity model.
const createToxicityModelInstance = async () => {
  try {
    //use WebGPU backend if available
    if (navigator.gpu) {
        await window.tf.setBackend('webgpu');
        await window.tf.ready();
    }

    return await window.toxicity.load(0.9).then(model => {
      return model;
    }).catch(error => {
      console.log(error);
      return null;
    });
  } catch (er) {
      console.error(er);
  }
}

높은 참여도 및 클릭률

Policybazaar는 여러 모델을 웹 API와 결합하여 영업시간 이후에도 고객 지원을 제공할 수 있었습니다. 이 기능의 제한된 출시에서 얻은 초기 결과에 따르면 사용자 참여도가 높았습니다.

챗봇을 연 사용자의 73% 가 몇 분 동안 여러 질문으로 구성된 대화에 참여하여 이탈률이 낮았습니다. 또한 파일럿 프로그램은 이 새로운 고객 지원 클릭 유도 문구의 클릭률이 2배 높아 Finova와의 문의에 대한 고객 상호작용이 성공적임을 보여줍니다. 또한 클라이언트 측 악성 콘텐츠 감지를 위해 WebGPU 백엔드로 전환하여 추론 속도를 10배 높여 사용자 의견을 더 빠르게 제공할 수 있었습니다.

73%

사용자가 양질의 대화를 시작하고 참여함

2

이전 클릭 유도 문구에 비해 클릭률이 높음

10x

WebGPU를 통한 더 빠른 추론

리소스

클라이언트 측 AI로 자체 웹 앱의 기능을 확장하려면 다음 안내를 따르세요.