منتشر شده: ۱۰ نوامبر ۲۰۲۵
هنگام ساخت وبسایتها و برنامههای وب با هوش مصنوعی، ممکن است نمونه اولیه را با یک مدل زبان بزرگ (LLM) مانند ChatGPT، Gemini یا Claude ساخته باشید، سپس آن پیادهسازی را به مرحله تولید گسترش داده باشید. LLM نوعی مدل پایه است، یک مدل بسیار بزرگ و از پیش آموزشدیده که منابع زیادی مصرف میکند، گران است و اغلب بهترین ابزار برای کار نیست. مدلهای کوچکتر، محلی و مختص کار، منابع کمتری مصرف میکنند و اغلب پاسخهای بهتر و سریعتری را با هزینه کمتر از مدلهای پایه «یک اندازه برای همه» ارائه میدهند.
وقتی مدل بهتری را انتخاب میکنید، رویکردی پایدارتر را انتخاب میکنید که ما آن را هوش مصنوعی در اندازه مناسب مینامیم. هوش مصنوعی در اندازه مناسب موارد زیر را ارائه میدهد:

- تأخیر کمتر برای کاربران ، زمانی که مدلها به صورت محلی اجرا میشوند، به جای اینکه به سرورهای دوردست رفت و برگشت داشته باشند.
- کاهش هزینههای API وقتی که برای قابلیتهای بلااستفاده هزینهای پرداخت نمیکنید.
- دسترسی آفلاین اپلیکیشن به مدلهای سمت کلاینت و روی دستگاه، تجربههای قابل اعتمادتری را ایجاد میکند.
در حالی که مدلهای پایه در استدلال و مکالمه عمومی برتری دارند، استفاده از آنها برای کارهای خاص (مانند طبقهبندی متن یا استخراج دادهها) مانند استفاده از یک ماشین فرمول ۱ برای خرید مکدونالد است. این کار از نظر فنی امکانپذیر است، اما بسیار ناکارآمد است (و برای مسافران شما ناراحتکننده است). در عوض، پیادهسازی خود را با نیازهای واقعی خود مطابقت دهید.
شیوههای پایدار هوش مصنوعی و تجربیات کاربری بهینه، اولویتهای رقیب نیستند. آنها اولویتهای یکسانی هستند که به شیوههای متفاوتی بیان میشوند.
یک راه برای ارزیابی تأثیر زیستمحیطی هوش مصنوعی این است:
- آموزش : آموزش اولیه مدل به منابع قابل توجهی نیاز دارد. این بهینهسازی و «یادگیری» توسط ارائهدهنده مدل مدیریت میشود.
- استنتاج : شما زمانی استنتاج را انجام میدهید که به یک مدل آموزشدیده ورودی جدید (یک اعلان) برای تولید خروجی (متن پاسخ) ارائه میدهید. در مقایسه با آموزش، استنتاج از منابع بسیار کمتری استفاده میکند.
آموزش یک هزینه ثابت است، اما هزینه استنتاج با میزان استفاده متغیر است، که انتخاب مدل را به یک عامل کلیدی قابل کنترل تبدیل میکند. شما میتوانید انتخابهای آگاهانهای برای مورد استفاده خود و برای کره زمین داشته باشید و از توسعه مسئولانه هوش مصنوعی پشتیبانی کنید.
پیادهسازی هوش مصنوعی کاربر-محور
به جای ساخت هوش مصنوعی مبتنی بر مدل، هوش مصنوعی مبتنی بر کاربر بسازید. در نظر بگیرید که هوش مصنوعی چه وظایفی را میتواند انجام دهد که استفاده از برنامه شما را آسانتر کند یا حجم کار کاربران یا میزان تغییر زمینهای که باید انجام دهند را کاهش دهد.
برای مثال، فرض کنید شما کسبوکاری به نام Rewarding Eats را اداره میکنید که به کاربران برای صرف غذا در رستورانهای خاص امتیاز میدهد. میتوانید از هوش مصنوعی برای اسکن تصویر رسید برای نام رستوران و کل هزینه استفاده کنید، به جای اینکه از مشتریان خود بخواهید آن را به صورت دستی وارد کنند. این ویژگی احتمالاً تجربه کاربری برنامه شما را بهبود میبخشد.
هنگام ساخت هوش مصنوعی کاربر-محور:
- الزامات وظیفه خود را تعریف کنید . هوش مصنوعی چه وظایفی را باید انجام دهد؟ آیا این وظایف کاملاً مبتنی بر متن هستند یا شامل اجزای صوتی یا تصویری نیز میشوند؟
- مدل مناسب را انتخاب کنید . مدلهای مختلف در کارهای مختلف کارآمدتر هستند و اغلب فضای کمتری اشغال میکنند.
- محدودیتهای استقرار خود را درک کنید . محل استقرار مدل کجاست؟ دادهها کجا قرار خواهند گرفت؟ آیا کاربر اتصال قابل اعتمادی خواهد داشت؟
- با بهبودهای تدریجی، سریعترین و امنترین تجربه کاربری را پیادهسازی کنید .
الزامات وظیفه خود را تعریف کنید
به جای اینکه به دنبال «مکانهایی برای استفاده از هوش مصنوعی» یا «ویژگیهای هوش مصنوعی برای اضافه کردن» باشید، باید بپرسید: «یک تجربه بدون اصطکاک چگونه خواهد بود؟» بسته به اینکه شرکت شما چقدر بزرگ است، این باید گفتگویی با مدیران محصول باشد.
به عنوان مثال، اپلیکیشن Rewarding Eats را در نظر بگیرید. اولین سوالی که باید بپرسید این است: «آیا برای این کار به هوش مصنوعی نیاز داریم؟»

یک مدل پایه میتواند هزینه را از روی رسید، با کمی راهنمایی، استخراج کند. اما یک روش کارآمدتر برای مدیریت این موضوع، اصلاً به یک مدل بزرگ نیاز ندارد. از تشخیص نوری کاراکتر (OCR) برای تجزیه متن از تصویر استفاده کنید و آن را به یک مدل خاص مانند یک مدل طبقهبندی متن منتقل کنید تا موارد و هزینهها را از متن تجزیهشده شناسایی کند. این کار را میتوان روی دستگاه کاربر و بدون ارسال هیچ دادهای به سرورها انجام داد.
در بیشتر موارد، اگر معتقدید که به یک مدل پایه نیاز دارید، احتمالاً باید مشکل را به وظایف جداگانه تقسیم کنید.
مدل مناسب را انتخاب کنید
وقتی بدانید که میخواهید چه وظایفی را انجام دهید، میتوانید نوع و مدل مناسب برای کار را انتخاب کنید. اگرچه دستیابی به مدل Foundation آسانتر است، اما مدلهای کوچکتر کار را سریعتر و ارزانتر انجام میدهند. وقتی وظیفه خود را درک کردید، میتوانید مدل کوچک و مناسب برای انجام کار را انتخاب کنید.
انواع و اقسام مدلها موجود است، بنابراین برای تعیین انتخاب مناسب برای پروژه خود ، بخش «انتخاب مدلها» را با دقت مطالعه کنید.
مکان مناسبی را برای مدل خود انتخاب کنید
در حالی که مدلهای پایه حتی برای اجرا روی قدرتمندترین دسکتاپها نیز بسیار بزرگ هستند، LLMهای کوچکتر ، مدلهای زبان کوچک (SLM) و مدلهای وظیفه-محور میتوانند روی بسیاری از دستگاهها اجرا شوند.
| توصیه نمیشود | توصیه نمیشود | توصیه شده | |
| مدل زبان کوچک (SLM) | توصیه شده | توصیه شده | توصیه شده |
| مدلهای فونداسیون | توصیه نمیشود | توصیه نمیشود | توصیه شده |
دستگاههای SLM راحت اما غیرمعمول هستند. میلیاردها تلفن همراه وجود دارد و تنها جدیدترین و گرانترین مدلها قادر به اجرای SLMهای محلی هستند. این درصد کمی از بازار است.
از این ماتریس برای تعیین بهترین مکان برای مدل خود استفاده کنید:
| متریک | سمت کلاینت / محلی | سمت سرور / ریموت |
|---|---|---|
| اتصال | حالت آفلاین مورد نیاز، شبکههای پر از مشکل، امکانات امن | محیطهای همیشه آنلاین |
| محل دادهها | پردازش عکسهای کاربر، ورودی متن، فایلهای شخصی | کار با اسناد سمت سرور، پایگاههای داده |
| الگوی استفاده | تماسهای پربسامد (ترجمه چت، تحلیل بلادرنگ) | وظایف پیچیده گاه به گاه |
| پهنای باند | کاربران موبایل، مناطق روستایی، خروجی فایلهای بزرگ | پهنای باند نامحدود، پاسخهای کوچک |
| حریم خصوصی و امنیت | دادههای تنظیمشده (بهداشت و درمان، امور مالی)، رعایت دقیق | دادههای تجاری استاندارد، زیرساخت امنیتی تثبیتشده |
| تأثیر باتری | برنامههای دسکتاپ، موارد استفاده با مصرف برق پایین | اپلیکیشنهای موبایل با باتری محدود |
استنتاج سمت کلاینت، بهبود تدریجی و ترکیبی
با کتابخانههایی مانند TensorFlow.js ، Transformers.js و ONNX.js ، برنامههای شما میتوانند با دادههای کاربر، استنتاج سمت کلاینت انجام دهند. شما مدل خود را به فرمت مناسب تبدیل میکنید، سپس آن را از راه دور میزبانی میکنید یا مستقیماً در برنامه خود جاسازی میکنید. بهترین تجربه کاربری از ترکیبی یکپارچه از مدلهای از پیش بارگذاری شده، قابل دانلود و از راه دور استفاده میکند، بنابراین کاربران میتوانند بدون هیچ مشکلی کار خود را انجام دهند.
حتی اگر استفاده از یک مدل ابریِ از راه دور به دلایل امنیتی (یا نیاز به اندازه) ترجیح داده شود، در دسترس قرار دادن مدلهای محلی کافی در صورت قطع اتصال میتواند یک تجربه انعطافپذیر ایجاد کند.
در نهایت، سه رویکرد برای استقرار مدل وجود دارد. بهترین رویکرد را با توجه به نیازهای خود انتخاب کنید.
- اولویت محلی: برنامه نیازمند استفاده آفلاین، استفاده مکرر و دادههای حساس است.
- اول-از-راه-دور: استدلال پیچیده، مدلهای بزرگ، استفادهی کم.
- رویکرد ترکیبی: مدلهای کوچک را هنگام استفاده از APIها دانلود کنید، وقتی آماده بودید، تغییر دهید.
مراحل بعدی شما
فناوری اغلب از پیادهسازی پیروی میکند. بهترین راه برای توسعهدهندگان برای تأثیرگذاری بر جهتگیری صنعت، به نفع تجربهای بهتر برای کاربر و نتیجهای بهتر برای دنیای ما، این است که:
- ابزار مناسب برای کار را انتخاب کنید . مدلهای کوچکتر منابع کمتری مصرف میکنند و اغلب به خوبی مدلهای بزرگ عمل میکنند، با کمک مهندسی سریع . آنها تأخیر کمتری دارند.
- شفافیت هزینههای استنتاج و آموزش را الزامی کنید . از شرکت خود بخواهید مدلهایی را که این اعداد را افشا میکنند، در اولویت قرار دهد.
- مدل را نزدیک دادهها قرار دهید تا هزینه رفت و برگشت به سرور کاهش یابد.
- از آنچه در حال حاضر موجود است استفاده کنید . اگر از قبل مدلهایی روی دستگاه وجود دارد، ابتدا آن مدلها را انتخاب کنید.
منابع
اگر میخواهید نگاه عمیقتری به این مباحث بیندازید، من از منابع زیر برای نوشتن این مطلب استفاده کردهام. این منابع برای مطالعه عالی هستند.
عملکرد مدل و تحقیق
- مدلهای زبان کوچک، آینده هوش مصنوعی عاملمحور هستند (مقاله تحقیقاتی انویدیا) : پشتیبانی از تحقیقات در مورد قابلیتهای SLM
- حسابرسی اثرات زیستمحیطی میسترال : شفافیت هزینههای آموزش و استنتاج
- مطالعه هزینه استنتاج گوگل : اندازهگیری تأثیر زیستمحیطی
- مطالعه طبیعت: هوش مصنوعی در مقابل تأثیر انسان بر محیط زیست : تجزیه و تحلیل مقایسهای هوش مصنوعی و انجام وظایف انسانی
- بحث تأثیر هوش مصنوعی بر محیط زیست : زمینه گفتمان زیستمحیطی
ابزارهای پیادهسازی و توسعه
- بارگذاری مدل TensorFlow.js : استقرار مدل سمت کلاینت
- مثالهای Transformers.js : استنتاج مدل مبتنی بر مرورگر
- زمان اجرای ONNX.js : استقرار مدل چند پلتفرمی
- راهنمای هوش مصنوعی ترکیبی فایربیس : ادغام مدل محلی و از راه دور