公開日: 2025 年 5 月 21 日
Policybazaar は、登録ユーザー数 9, 700 万人を超えるインドを代表する保険プラットフォームです。約 80% のユーザーが毎月 Policybazaar にオンラインでアクセスするため、プラットフォームでスムーズなユーザー エクスペリエンスを提供することが重要です。
Policybazaar のチームは、顧客サポート チームの営業時間外である夜間に、かなりの数のユーザーがウェブサイトにアクセスしていることに気付きました。ユーザーが回答を得るために翌営業日まで待つ必要や、夜間スタッフを雇う必要がないソリューションを実装することで、Policybazaar はユーザーに即時サービスを提供したいと考えました。
お客様は、保険プラン、保険プランの仕組み、ニーズに合った保険プランについて、多くの質問をします。パーソナライズされた質問は、よくある質問やルールベースの chatbot では対応しにくいものです。こうしたニーズに対応するため、チームは生成 AI によるパーソナライズされたアシスタントを実装しました。
73%
ユーザーが質の高い会話を開始し、参加した
2x
以前の行動を促すフレーズと比較してクリック率が上昇している
10x
WebGPU による推論の高速化
Finova AI によるパーソナライズされたアシスタント
英語と一部のユーザーのネイティブなインドの言語で、パーソナライズされた回答と優れたカスタマー サポートを提供するために、Policybazaar はテキストと音声を活用した保険アシスタント chatbot Finova AI を構築しました。
これを実現するために、多くのステップを踏みました。Google I/O 2025 のウェブ AI のユースケースと実世界の戦略に関するトークで、詳細なチュートリアルをご覧ください。

1. ユーザー入力
まず、お客様がテキストまたは音声でチャットボットにメッセージを送信します。ユーザーが chatbot に話しかけると、Web Speech API を使用して音声がテキストに変換されます。
2. 英語に翻訳する
お客様のメッセージが Language Detector API に送信されます。API がインドの言語を検出すると、入力は Translator API に送信され、英語に翻訳されます。
どちらの API も推論をクライアントサイドで実行します。つまり、翻訳中にユーザー入力がデバイス外に送信されることはありません。
3. メッセージが有害度の検出で評価される
クライアントサイドの有害性検出モデルは、お客様の入力に不適切な言葉や攻撃的な言葉が含まれているかどうかを評価するために使用されます。不適切と判断された場合は、メッセージを言い換えるよう求めるメッセージが表示されます。有害な表現が含まれている場合、メッセージは次のステップに進みません。
これにより、お客様対応スタッフが確認し、必要に応じてフォローアップできるように、丁寧な会話を維持できます。
4. リクエストがサーバーに送信される
翻訳されたクエリは、Policybazaar のデータでトレーニングされたサーバーサイド モデルに渡され、質問に対する英語の回答が返されます。
ユーザーは、パーソナライズされた回答やおすすめ情報のほか、商品に関する複雑な質問の回答も得ることができます。
5. お客様の言語に翻訳する
最初のクエリの翻訳に使用される Translation API は、Language Detector API によって検出されたお客様の言語にクエリを翻訳します。これらの API はクライアントサイドで実行されるため、すべての処理がデバイス上で行われます。つまり、お客様は母国語でサポートを受けることができるため、英語を話さないユーザーもチャットボットを利用できます。
ハイブリッド アーキテクチャ
デスクトップ プラットフォームとモバイル プラットフォームの両方で動作する Finova AI は、複数のモデルを使用して最終結果を生成します。Policybazaar は、ソリューションの一部をクライアントサイドで実行し、一部をサーバーサイドで実行するハイブリッド アーキテクチャを構築しました。
1 つのモデルのみを使用する場合でも、複数のモデルを使用する場合でも、ハイブリッド アーキテクチャを実装する理由はいくつかあります。
- クライアントサイド モデルの機能を評価する。必要に応じてサーバーサイドにフォールバックします。
- モデルデータの制限: 言語モデルのサイズは大きく異なる場合があります。これによって特定の機能も決まります。たとえば、ユーザーから提供しているサービスに関連する個人的な質問を受けた場合を考えてみましょう。クライアントサイド モデルは、その特定の分野でトレーニングされている場合、質問に答えることができます。ただし、できない場合は、より複雑で大規模なデータセットでトレーニングされたサーバーサイドの実装にフォールバックできます。
- モデルの信頼度: コンテンツ モデレーションや不正行為の検出などの分類モデルでは、クライアントサイド モデルが低い信頼スコアを出力する場合があります。この場合は、より強力なサーバーサイド モデルにフォールバックすることをおすすめします。
- さまざまなデバイス機能をサポートする。
- ハードウェアの制限: 理想的には、すべてのユーザーが AI 機能を利用できるようにする必要があります。実際には、ユーザーはさまざまなデバイスを使用しており、すべてのデバイスが AI 推論をサポートできるわけではありません。デバイスがクライアントサイド推論をサポートできない場合は、サーバーにフォールバックできます。このアプローチでは、可能な限り費用とレイテンシを最小限に抑えながら、機能のアクセス性を高めることができます。
- ネットワークの制限事項: ユーザーがオフラインまたは不安定なネットワーク上にある場合でも、ブラウザにキャッシュに保存されたモデルがある場合は、モデルをクライアントサイドで実行できます。
- プライバシー要件。
- アプリに厳格なプライバシー要件がある場合。たとえば、ユーザーフローの一部で個人情報や顔検出による本人確認が必要な場合は、クライアントサイド モデルを選択してデバイス上でデータを処理し、検証出力(合格または不合格など)をサーバーサイド モデルに送信して次のステップに進みます。
低レイテンシ、費用対効果、プライバシーが求められる Policybazaar では、クライアントサイド ソリューションが使用されました。カスタムデータでトレーニングされたより複雑なモデルが必要な場合は、サーバーサイド ソリューションが使用されました。
ここでは、クライアントサイド モデルの実装について詳しく説明します。
クライアントサイドの有害度の検出
メッセージが翻訳されると、お客様のメッセージは TensorFlow.js の有害性検出モデルに渡されます。このモデルは、パソコンとモバイルでクライアントサイドで実行されます。音声文字変換は、フォローアップのために人間のサポート スタッフに転送されるため、有害な表現は避けてください。メッセージはユーザーのデバイスで分析された後、サーバーに送信され、最終的に人間のサポート スタッフが確認します。
また、クライアントサイド分析により、機密情報の削除が可能になりました。ユーザーのプライバシーは最優先事項であり、クライアントサイド推論はそれを実現するうえで役立ちます。
メッセージごとにいくつかの手順が必要です。有害性検出では、言語の検出と翻訳に加えて、各メッセージでサーバーと複数の往復通信が必要になります。これらのタスクをクライアントサイドで実行することで、Policybazaar は予測される機能費用を大幅に抑えることができます。
Policybazaar は、WebGL から WebGPU バックエンド(サポートされているブラウザの場合)に切り替え、推論時間を 10 倍に短縮しました。ユーザーはメッセージを修正するためのフィードバックをより迅速に受け取ることができ、エンゲージメントと顧客満足度の向上につながりました。
// Create an instance of the toxicity model.
const createToxicityModelInstance = async () => {
try {
//use WebGPU backend if available
if (navigator.gpu) {
await window.tf.setBackend('webgpu');
await window.tf.ready();
}
return await window.toxicity.load(0.9).then(model => {
return model;
}).catch(error => {
console.log(error);
return null;
});
} catch (er) {
console.error(er);
}
}
エンゲージメントとクリック率が高い
Policybazaar は、複数のモデルとウェブ API を組み合わせることで、営業時間外の顧客サポートを成功裏に拡大しました。この機能の限定リリースの初期結果では、ユーザー エンゲージメントが高いことが示されました。
chatbot を開いたユーザーの 73% が、数分間続く複数の質問の会話に参加し、その結果、離脱率が低くなりました。さらに、この新しいカスタマー サポートの行動を促すフレーズへのクリック率は、試験運用プログラムで 2 倍に増加し、お客様からの問い合わせに対する Finova の対応が成功したことを示しています。さらに、クライアントサイドの有害性検出に WebGPU バックエンドに切り替えることで、推論が 10 倍高速化され、ユーザー フィードバックが迅速になりました。
73%
ユーザーが質の高い会話を開始し、参加した
2x
以前の行動を促すフレーズと比較してクリック率が上昇している
10x
WebGPU による推論の高速化
リソース
クライアントサイド AI を使用して独自のウェブアプリの機能を拡張する場合は、以下をご覧ください。
- クライアントサイドの有害性検出を実装する方法を学習する。
- クライアントサイド AI デモのコレクションを確認する。
- Mediapipe と Transformers.js について学習する。事前トレーニング済みモデルを操作し、JavaScript でアプリケーションに統合できます。
- Chrome 向け AI コレクションでは、Chrome やその他のプラットフォームで AI を支えるテクノロジーに関するリソース、ベスト プラクティス、最新情報を提供しています。
- これには、Policybazaar と JioHotstar が Translator API と Language Detector API を使用して多言語エクスペリエンスを構築する方法に関するケーススタディが含まれています。
- I/O 2025 でウェブ AI の実際の例をご覧ください。