Policybazaar کمک به مشتری پس از ساعت کاری را با هوش مصنوعی وب تمدید کرد و 73 درصد از کاربران با کیفیت تعامل داشتند.

ریشابه مهروترا
Rishabh Mehrotra
سوئتا گوپالاکریشنان
Swetha Gopalakrishnan

تاریخ انتشار: 21 می 2025

Policybazaar با بیش از 97 میلیون مشتری ثبت شده، یکی از پلتفرم های بیمه پیشرو در هند است. حدود 80 درصد از مشتریان هر ماه به صورت آنلاین از Policybazaar بازدید می‌کنند، بنابراین بسیار مهم است که پلتفرم‌های آن‌ها تجربیات کاربری روانی را ارائه دهند.

تیم Policybazaar متوجه شد که تعداد قابل توجهی از کاربران عصرها بعد از ساعت کاری تیم کمک به مشتری از وب سایت آنها بازدید می کنند. به جای اینکه کاربران برای دریافت پاسخ یا استخدام کارکنان یک شبه تا روز کاری بعدی منتظر بمانند، Policybazaar می خواست راه حلی را برای ارائه خدمات فوری به این کاربران پیاده سازی کند.

مشتریان در مورد طرح های بیمه، نحوه کار آنها و اینکه کدام طرح نیازهای آنها را برآورده می کند، سوالات زیادی دارند. پاسخگویی به سؤالات شخصی شده با سؤالات متداول یا ربات‌های چت مبتنی بر قانون دشوار است. برای رفع این نیازها، این تیم کمک های شخصی را با هوش مصنوعی مولد پیاده سازی کرد.

73 درصد

کاربران مکالمات با کیفیت را راه اندازی کردند و درگیر آن شدند

2 x

نرخ کلیک بالاتر در مقایسه با تماس برای اقدام قبلی

10 x

استنتاج سریعتر با WebGPU

کمک شخصی با Finova AI

برای ارائه پاسخ‌های شخصی و کمک بهتر به مشتری به زبان انگلیسی و زبان هندی برخی از کاربران، Policybazaar یک چت ربات دستیار بیمه متنی و صوتی به نام Finova AI ساخت.

مراحل زیادی برای این امکان وجود داشت. مروری دقیق در موارد و استراتژی‌های استفاده از هوش مصنوعی وب در گفتگوی دنیای واقعی از Google I/O 2025 را تماشا کنید.

این نمودار مراحل سطح بالای اجرای Finova AI را نشان می دهد.

1. ورودی کاربر

ابتدا مشتری پیامی را به صورت متنی یا صوتی به چت بات ارسال می کند. اگر آنها با ربات چت صحبت کنند، از Web Speech API برای تبدیل صدا به متن استفاده می شود.

2. به انگلیسی ترجمه کنید

پیام مشتری به زبان شناساگر API ارسال می شود. اگر API یک زبان هندی را شناسایی کند، ورودی برای ترجمه به انگلیسی به API مترجم ارسال می‌شود.

هر دوی این API ها در سمت کلاینت استنتاج را اجرا می کنند، به این معنی که ورودی کاربر هنگام ترجمه از دستگاه خارج نمی شود.

3. پیام با تشخیص سمیت ارزیابی می شود

یک مدل تشخیص سمیت سمت مشتری برای ارزیابی اینکه آیا ورودی مشتری حاوی کلمات نامناسب یا تهاجمی است استفاده می شود. اگر چنین شد، از مشتری خواسته می شود تا پیام را دوباره بیان کند. اگر پیام حاوی زبان سمی باشد به مرحله بعدی نمی رود.

این امر به حفظ مکالمات محترمانه برای کارکنان کمک به مشتری کمک می کند تا در صورت لزوم آن را بررسی و پیگیری کنند.

4. درخواست به سرور ارسال می شود

پرس و جو ترجمه شده سپس به یک مدل سمت سرور آموزش داده شده بر روی داده های Policybazaar ارسال می شود و یک پاسخ انگلیسی به سوال را برمی گرداند.

مشتریان می توانند پاسخ ها و توصیه های شخصی و همچنین پاسخ به سوالات پیچیده تر در مورد محصولات را دریافت کنند.

5. به زبان مشتری ترجمه کنید

Translator API که برای ترجمه پرس و جو اولیه استفاده می شود، پرس و جو را به زبان مشتری برمی گرداند، همانطور که توسط Language Detector API شناسایی شده است. باز هم، این APIها در سمت کلاینت اجرا می شوند، بنابراین همه این کارها در دستگاه آنها اتفاق می افتد. این بدان معناست که مشتریان می‌توانند به زبان اصلی خود کمک دریافت کنند، که باعث می‌شود ربات چت برای غیر انگلیسی زبانان قابل دسترسی باشد.

معماری ترکیبی

هوش مصنوعی Finova که بر روی پلتفرم‌های دسکتاپ و موبایل اجرا می‌شود، برای تولید نتایج نهایی به چندین مدل متکی است. Policybazaar یک معماری ترکیبی ساخته است که در آن بخشی از راه حل در سمت مشتری و بخشی در سمت سرور اجرا می شود.

دلایل مختلفی وجود دارد که ممکن است بخواهید معماری هیبریدی را پیاده سازی کنید، چه از یک مدل یا چند مدل استفاده کنید.

  • قابلیت مدل سمت مشتری را ارزیابی کنید. در صورت نیاز به سمت سرور برگردید.
    • محدودیت‌های داده‌های مدل : مدل‌های زبان می‌توانند از نظر اندازه بسیار متفاوت باشند ، که همچنین قابلیت‌های خاصی را تعیین می‌کند. برای مثال، موقعیتی را در نظر بگیرید که در آن کاربر یک سوال شخصی در رابطه با سرویسی که ارائه می‌دهید می‌پرسد. یک مدل سمت مشتری ممکن است بتواند به این سوال پاسخ دهد، اگر در آن زمینه خاص آموزش دیده باشد. با این حال، اگر نمی‌تواند، می‌توانید به یک پیاده‌سازی سمت سرور که بر روی مجموعه داده‌های پیچیده‌تر و بزرگ‌تر آموزش داده شده است، بازگشت.
    • اطمینان مدل : در مدل‌های طبقه‌بندی، مانند تعدیل محتوا یا کشف تقلب، یک مدل سمت مشتری ممکن است امتیاز اطمینان کمتری را به همراه داشته باشد. در این مورد، ممکن است بخواهید به یک مدل سمت سرور قدرتمندتر بازگردید.
  • پشتیبانی از قابلیت های مختلف دستگاه
    • محدودیت‌های سخت‌افزاری : در حالت ایده‌آل، ویژگی‌های هوش مصنوعی برای همه کاربران شما قابل دسترسی است. در واقعیت، کاربران از طیف وسیعی از دستگاه‌ها استفاده می‌کنند و همه دستگاه‌ها نمی‌توانند از استنتاج هوش مصنوعی پشتیبانی کنند. اگر دستگاهی قادر به پشتیبانی از استنتاج سمت سرویس گیرنده نباشد، می توانید دوباره به سرور بروید. با این رویکرد، می توانید ویژگی خود را بسیار در دسترس قرار دهید، در حالی که در صورت امکان هزینه و تأخیر را به حداقل برسانید.
    • محدودیت‌های شبکه : اگر کاربر آفلاین است یا در شبکه‌های ضعیف است اما یک مدل حافظه پنهان در مرورگر دارد، می‌توانید مدل سمت کلاینت را اجرا کنید.
  • الزامات حریم خصوصی
    • ممکن است برای درخواست خود الزامات سختگیرانه حفظ حریم خصوصی داشته باشید. به عنوان مثال، اگر بخشی از جریان کاربر به تأیید هویت با اطلاعات شخصی یا تشخیص چهره نیاز دارد، مدل سمت سرویس گیرنده را برای پردازش داده‌های روی دستگاه انتخاب کنید و خروجی تأیید (مانند عبور یا عدم موفقیت) را برای مراحل بعدی به مدل سمت سرور ارسال کنید.

برای Policybazaar، که در آن تأخیر کم، کارایی هزینه و حفظ حریم خصوصی مورد نیاز بود، یک راه حل سمت مشتری استفاده شد. در جایی که به مدل‌های پیچیده‌تر آموزش‌دیده بر روی داده‌های سفارشی نیاز بود، یک راه‌حل سمت سرور استفاده شد.

در اینجا، ما نگاهی دقیق تر به پیاده سازی مدل سمت مشتری می اندازیم.

تشخیص سمیت سمت مشتری

پس از ترجمه پیام‌ها ، پیام مشتری به مدل تشخیص سمیت TensorFlow.js ارسال می‌شود که در سمت مشتری، روی دسک‌تاپ و موبایل اجرا می‌شود. از آنجایی که رونویسی برای پیگیری به کارکنان کمک های انسانی ارسال می شود، مهم است که از زبان سمی خودداری کنید. پیام ها قبل از ارسال به سرور بر روی دستگاه کاربر تجزیه و تحلیل می شوند و به دنبال آن کارکنان نهایی کمک انسانی.

علاوه بر این، تجزیه و تحلیل سمت مشتری امکان حذف اطلاعات حساس را فراهم می کند. حریم خصوصی کاربر اولویت بالایی است و استنباط سمت مشتری به این امکان کمک می کند.

چندین مرحله برای هر پیام لازم است. با تشخیص سمیت، علاوه بر تشخیص زبان و ترجمه، هر پیام به چندین سفر رفت و برگشت به سرور نیاز دارد. با انجام این وظایف در سمت مشتری، Policybazaar می تواند هزینه ویژگی پیش بینی شده را به میزان قابل توجهی محدود کند.

Policybazaar از WebGL به Backend WebGPU (برای مرورگرهای پشتیبانی شده) تغییر کرد و زمان استنتاج 10 برابر بهبود یافت. کاربران بازخورد سریع‌تری دریافت کردند تا پیام خود را اصلاح کنند، که منجر به تعامل بیشتر و رضایت مشتری می‌شود.

// Create an instance of the toxicity model.
const createToxicityModelInstance = async () => {
  try {
    //use WebGPU backend if available
    if (navigator.gpu) {
        await window.tf.setBackend('webgpu');
        await window.tf.ready();
    }

    return await window.toxicity.load(0.9).then(model => {
      return model;
    }).catch(error => {
      console.log(error);
      return null;
    });
  } catch (er) {
      console.error(er);
  }
}

تعامل و نرخ کلیک بالا

با ترکیب چندین مدل با API های وب، Policybazaar با موفقیت کمک مشتری را بعد از ساعات کاری گسترش داد. نتایج اولیه از انتشار محدود این ویژگی حاکی از تعامل بالای کاربر بود.

73 درصد از کاربرانی که ربات چت را باز کردند، در مکالمات چند سوالی چند دقیقه ای شرکت کردند که در نتیجه نرخ پرش پایینی داشت. علاوه بر این، برنامه آزمایشی نرخ کلیک 2 برابر بالاتری را برای این تماس برای اقدام جدید برای کمک به مشتری نشان داد که تعامل موفق مشتری با Finova را برای سؤالات آنها نشان داد. علاوه بر این، جابجایی به پشتیبان WebGPU برای تشخیص سمیت سمت کلاینت استنتاج را 10 برابر سرعت می‌بخشد و منجر به بازخورد سریع‌تر کاربر می‌شود.

73 درصد

کاربران مکالمات با کیفیت را راه اندازی کردند و درگیر آن شدند

2 x

نرخ کلیک بالاتر در مقایسه با تماس برای اقدام قبلی

10 x

استنتاج سریعتر با WebGPU

منابع

اگر علاقه مند به گسترش قابلیت های برنامه وب خود با هوش مصنوعی سمت مشتری هستید: