クライアントサイド AI による商品レビューの提案を確認する

Maud Nalpas
Maud Nalpas

公開日: 2024 年 10 月 21 日

オンライン ショップは、商品レビューを表示することで、コンバージョンが 270% 増加する可能性があります。否定的なレビューも 信頼性が高いため重要ですオンラインの買い物客の 82% は購入前にそれらを探しています。

特にネガティブな場合は、役に立つ商品レビューを投稿するようお客様に促すのは難しい場合があります。ここでは、生成 AI を使用して、他のユーザーの購入判断に役立つ有益なレビューをユーザーが作成できるようにする方法について説明します。

デモとコード

商品レビューのデモを試して、GitHub のコードを調べてみましょう。

作成方法

クライアントサイド AI

このデモでは、以下の理由からこの機能をクライアントサイドに実装しました。

  • レイテンシ。ユーザーが入力を停止した直後に、候補をすばやく表示したいと考えております。これは、サーバー ラウンドトリップを回避することで実現できます。
  • 費用。これはデモですが、同様の機能を本番環境でリリースすることを検討している場合は、この機能がユーザーにとって有益かどうかを検証するまで、サーバーサイドの費用なしでテストすることをおすすめします。

MediaPipe 生成 AI

次の理由から、MediaPipe LLM 推論 APIMediaPipe GenAI パッケージ)を介して Gemma 2B モデルを使用することを選択しました。

  • モデルの精度: Gemma 2B は、サイズと精度のバランスが優れています。適切なプロンプトを与えると、このデモで満足できる結果が得られました。
  • クロスブラウザ サポート: MediaPipe は、WebGPU をサポートするすべてのブラウザでサポートされています。

ユーザー エクスペリエンス

パフォーマンスに関するベスト プラクティスを適用する

Gemma 2B は小規模な LLM ですが、それでもダウンロード サイズは大きくなります。パフォーマンスのベスト プラクティスを適用する(ウェブワーカーの使用など)。

機能をオプションにする

AI ベースのレビュー候補は、商品レビューを投稿するユーザーのワークフローを改善することを目的としています。Google の実装では、モデルが読み込まれておらず、ユーザーが改善のヒントを提供していない場合でも、ユーザーはレビューを投稿できます。

図 1. AI 機能がまだ準備できていない場合でも、ユーザーはレビューを投稿できます。

UI の状態とアニメーション

通常、推論は即時に実行されるものではありません。そのため、モデルが推論を実行中であることをユーザーに知らせます。アニメーションを使用して待機時間を短縮し、アプリケーションが意図したとおりに動作していることをユーザーに示します。Adam Argyle が設計したデモで、実装されているさまざまな UI 状態を確認しましょう。

図 2. アニメーションは、モデルの読み込み、思考、完了を示します。

その他の考慮事項

本番環境では、次のことを検討してください。

  • フィードバック メカニズムを提供する。提案が漠然としている場合や 意味をなさない場合はどうすればよいでしょうか簡単なフィードバック メカニズム(高評価や低評価など)を実装し、ヒューリスティクスに基づいてユーザーにとって有用なものを判断します。たとえば、この機能を使用しているユーザーの数や、オフにしているかどうかを評価します。
  • オプトアウトを許可する。ユーザーが AI の支援なしで自分の言葉を使いたい場合や、この機能が煩わしい場合はどうすればよいですか?ユーザーがオプトアウトとオプトインを自由にできるようにします。
  • この機能が存在する理由を説明します。簡単な説明を追加すると、ユーザーがフィードバック ツールを使用するよう促すことができます。たとえば、「より良いフィードバックは、他の買い物客が何を買うかを決める際に役立ち、Google がお客様が望む商品を開発する際に役立ちます」などです。リンク先の詳細情報として、この機能の仕組みと提供理由について詳しく説明できます。
  • 関連する場合は AI の使用を開示する。クライアントサイド AI では、ユーザーのコンテンツは処理のためにサーバーに送信されないため、プライバシーを保護できます。ただし、サーバーサイドのフォールバックを作成する、または AI で情報を収集する場合は、プライバシー ポリシーや利用規約などに追加することを検討してください。

実装

Google が実装した商品レビューの候補生成ツールは、幅広いユースケースに対応できます。今後のクライアントサイド AI 機能のベースとして、次の情報を検討してください。

ウェブワーカーでの MediaPipe

MediaPipe LLM 推論では、AI コードはわずか数行のだけで、モデル URL を渡してファイル リゾルバと LLM 推論オブジェクトを作成し、後でその LLM 推論インスタンスを使用してレスポンスを生成します。

ただし、このコードサンプルは少し複雑です。これは、Web Worker に実装されているため、カスタム メッセージ コードを介して main スクリプトを含むメッセージを渡すためです。詳しくは、このパターンをご覧ください。

// Trigger model preparation *before* the first message arrives
self.postMessage({ code: MESSAGE_CODE.PREPARING_MODEL });
try {
  // Create a FilesetResolver instance for GenAI tasks
  const genai = await FilesetResolver.forGenAiTasks(MEDIAPIPE_WASM);
  // Create an LLM Inference instance from the specified model path
  llmInference = await LlmInference.createFromModelPath(genai, MODEL_URL);
  self.postMessage({ code: MESSAGE_CODE.MODEL_READY });
} catch (error) {
  self.postMessage({ code: MESSAGE_CODE.MODEL_ERROR });
}

// Trigger inference upon receiving a message from the main script
self.onmessage = async function (message) {
  // Run inference = Generate an LLM response
  let response = null;
  try {
    response = await llmInference.generateResponse(
      // Create a prompt based on message.data, which is the actual review
      // draft the user has written. generatePrompt is a local utility function.
      generatePrompt(message.data),
    );
  } catch (error) {
    self.postMessage({ code: MESSAGE_CODE.INFERENCE_ERROR });
    return;
  }
  // Parse and process the output using a local utility function
  const reviewHelperOutput = generateReviewHelperOutput(response);
  // Post a message to the main thread
  self.postMessage({
    code: MESSAGE_CODE.RESPONSE_READY,
    payload: reviewHelperOutput,
  });
};
export const MESSAGE_CODE ={
  PREPARING_MODEL: 'preparing-model',
  MODEL_READY: 'model-ready',
  GENERATING_RESPONSE: 'generating-response',
  RESPONSE_READY: 'response-ready',
  MODEL_ERROR: 'model-error',
  INFERENCE_ERROR: 'inference-error',
};

入力と出力

図 3. 推論を介して元の LLM 出力にプロンプトを処理し、読み取りして表示する推奨事項に解析するプロセスを示す図。

フルプロンプトは、少数ショット プロンプトで構築されています。これには、ユーザーの入力、つまりユーザーが作成したレビューの下書きが含まれます。

ユーザー入力に基づいてプロンプトを生成するため、ユーティリティ関数 generatePrompt を実行時に呼び出します。

通常、クライアントサイドの AI モデルとライブラリには、サーバーサイドの AI よりもユーティリティが少なくなっています。たとえば、JSON モードは使用できないことがよくあります。つまり、プロンプト内に目的の出力構造を指定する必要があります。この方法は、モデル構成でスキーマを指定する場合に比べて、クリーンさ、保守性、信頼性で劣ります。また、クライアントサイド モデルはサイズが小さい傾向があるため、出力に構造的なエラーが発生しやすくなります。

実際には、Gemma 2B は JSON や JavaScript と比較して、構造化出力をテキストとして提供するのが優れています。このデモでは テキストベースの出力形式を選択しましたこのモデルはテキストを生成し、その出力を解析し、ウェブアプリでさらに処理できるように JavaScript オブジェクトに変換します。

プロンプトの改善

Gemini Chat のインターフェースでのプロンプトと回答。
図 4. Gemini Chat にプロンプトの改善を依頼すると、改善点の説明と有効性に関する注意事項とともに回答が返されます。

LLM を使用してプロンプトを反復処理しました。

  • 少数ショット プロンプト。少数ショット プロンプトの例を生成するために、Gemini Chat を使用しました。Gemini Chat は、最も強力な Gemini モデルを使用します。これにより、高品質の例が生成されました。
  • プロンプトの改良。プロンプトの構造が整ったら、Gemini Chat を使用してプロンプトを調整しました。これにより、出力の品質が向上しました。

コンテキストを使用して品質を高める

プロンプトに商品タイプを含めると、モデルはより関連性の高い質の高い候補を提案できるようになりました。このデモでは、商品タイプは静的です。実際のアプリケーションでは、ユーザーがアクセスしているページに基づいて、プロダクトをプロンプトに動的に含めることができます。

Review: "I love these."
Helpful: No  
Fix: Be more specific, explain why you like these **socks**.
Example: "I love the blend of wool in these socks. Warm and not too heavy."

プロンプトの少数ショット セクションの例の 1 つ: 推奨される修正とサンプル レビューに商品タイプ(「靴下」)が含まれています。

LLM の不具合と修正

通常、Gemma 2B では、より強力で大規模なサーバーサイド モデルよりもプロンプト エンジニアリングが必要になります。

Gemma 2B でいくつかの問題が発生しました。結果の改善方法は次のとおりです。

  • あまりにも優しい。Gemma 2B は、レビューを「役に立たない」と評価するのに苦労しており、判断をためらっているようです。ラベルの表現をより中立的なもの(「有用」と「有用でない」ではなく「具体的」と「具体的でない」)にし、例を追加しましたが、結果は改善しませんでした。結果を改善したのは、プロンプトの強制と繰り返しでした。思考の連鎖のアプローチも改善をもたらす可能性があります。
  • 手順が不明確。モデルがプロンプトを過剰に解釈することがあります。レビューを評価する代わりに、例のリストが続きました。この問題を解決するため、プロンプトに明確な遷移を追加しました。

    I'll give you example reviews and outputs, and then give you one review
    to analyze. Let's go:
    Examples:
    <... Examples>
    
    Review to analyze:
    <... User input>
    

    プロンプトを明確に構造化すると、モデルがサンプルリスト(少数ショット)と実際の入力を区別しやすくなります。

  • ターゲットが間違っている。モデルが、レビュー テキストではなく商品の変更を提案することがあります。たとえば、「この靴下は嫌い」というレビューに対して、モデルは「靴下を別のブランドやスタイルに交換することを検討してください」と提案する可能性がありますが、これは望ましい効果ではありません。プロンプトを分割することでタスクが明確になり、モデルがレビューに集中しやすくなりました。