اثربخشی یک مدل زبان بزرگ به شدت به دستورالعملهایی که به آن میدهیم متکی است. مهندسی سریع فرآیند ایجاد سؤالات به روشی است که بهترین خروجی را از یک LLM می گیرد. این یک گام مهم در اجرای یک ویژگی مبتنی بر LLM است.
مهندسی سریع یک فرآیند تکراری است. اگر با LLM های مختلف آزمایش کرده اید، احتمالاً متوجه شده اید که برای دستیابی به نتیجه بهتر باید دستور خود را تغییر دهید.
این موضوع برای مدل های با اندازه های مختلف نیز صادق است.
رابطهای چت که توسط LLMهای بزرگ، مانند Gemini یا ChatGPT ارائه میشوند، اغلب میتوانند نتایج رضایتبخشی را با کمترین تلاش برای تحریک ایجاد کنند. با این حال، هنگام کار با یک LLM پیش فرض و کوچکتر که به خوبی تنظیم نشده است، باید رویکرد خود را تطبیق دهید.
LLMهای کوچکتر قدرت کمتری دارند و اطلاعات کوچکتری برای استخراج دارند.
منظور ما از "LLM های کوچکتر" چیست؟
تعریف اندازههای LLM پیچیده است و سازندگان همیشه آنها را فاش نمیکنند.
در این سند، "LLM های کوچکتر" به معنای هر مدلی است که تحت پارامترهای 30B باشد. از امروز، مدلهایی با چند میلیون تا چند میلیارد پارامتر میتوانند به طور واقعی در مرورگر، روی دستگاههای درجه مصرفکننده اجرا شوند.
LLM های کوچکتر کجا استفاده می شوند؟
- هوش مصنوعی مولد روی دستگاه/در مرورگر ، برای مثال اگر از Gemma 2B با MediaPipe's LLM Inference API (حتی مناسب برای دستگاههای فقط CPU) یا DistilBert در مرورگر با Transformers.js استفاده میکنید. دانلود یک مدل و اجرای استنباط روی دستگاه کاربر فقط با این LLM های کوچکتر امکان پذیر است تا بارگیری های وب معقول بماند و با محدودیت های حافظه و GPU/CPU دستگاه مطابقت داشته باشد.
- هوش مصنوعی مولد سمت سرور سفارشی . مدلهای کوچک وزن باز مانند Gemma 2B، Gemma 7B یا Gemma 27B برای اجرا در سرور خود (و به صورت اختیاری تنظیم دقیق) در دسترس شما هستند.
شروع کنید
رابطهای چت که توسط LLMهای بزرگ، مانند Gemini یا ChatGPT ارائه میشوند، اغلب میتوانند نتایج رضایتبخشی را با کمترین تلاش تحریککننده ایجاد کنند. با این حال، هنگام کار با LLM های کوچکتر، باید رویکرد خود را تطبیق دهید. LLMهای کوچکتر قدرت کمتری دارند و اطلاعات کوچکتری برای استخراج دارند.
چارچوب و دستورالعمل های قالب دقیق را ارائه دهید
برای دستیابی به نتایج بهینه با LLM های کوچک، اعلان های دقیق تر و خاص تر ایجاد کنید.
به عنوان مثال:
Based on a user review, provide a product rating as an integer between 1 and 5. \n
Only output the integer.
Review: "${review}"
Rating:
ورودی (بررسی) | خروجی (رده بندی) | |
---|---|---|
LLM بزرگتر (Gemini 1.5) | LLM کوچکتر (Gemma 2B) | |
کاملا عاشق تناسب اندام! وزن را به خوبی توزیع می کند و حتی در سفرهای تمام روز به طرز شگفت انگیزی راحت است. توصیه می کند. | 5 | 4 از 5 ستاره** |
تسمه ها سست هستند و زیر بارهای سنگین شروع به فرو بردن شانه هایم کردند. | 1 | 2/5 |
در حالی که Gemini 1.5 خروجی مورد نظر را با این دستور ساده ارائه می دهد، خروجی Gemma راضی کننده نیست:
- قالب نادرست است. ما یک عدد صحیح برای رتبه بندی درخواست کردیم.
- رتبه بندی چندان دقیق به نظر نمی رسد. بررسی اول به اندازه کافی مشتاقانه است که نشان دهنده یک بررسی 5 ستاره است.
برای رفع این مشکل، باید از تکنیکهای مهندسی سریع، اعلانهای یک، چند و چند شات و اعلان زنجیرهای از فکر استفاده کنیم. ما همچنین باید دستورالعملهای فرمت واضحی ارائه دهیم و اصرار داشته باشیم که مدل باید از طیف کامل رتبهبندیها استفاده کند.
به عنوان مثال:
`Analyze a product review, and then based on your analysis give me the
corresponding rating (integer). The rating should be an integer between 1 and
5. 1 is the worst rating, and 5 is the best rating. A strongly dissatisfied
review that only mentions issues should have a rating of 1 (worst). A strongly
satisfied review that only mentions positives and upsides should have a rating
of 5 (best). Be opinionated. Use the full range of possible ratings (1 to
5). \n\n
\n\n
Here are some examples of reviews and their corresponding analyses and
ratings:
\n\n
Review: 'Stylish and functional. Not sure how it'll handle rugged outdoor
use, but it's perfect for urban exploring.'
Analysis: The reviewer appreciates the product's style and basic
functionality. They express some uncertainty about its ruggedness but
overall find it suitable for their intended use, resulting in a positive,
but not top-tier rating.
Rating (integer): 4
\n\n
Review: 'It's a solid backpack at a decent price. Does the job, but nothing
particularly amazing about it.'
Analysis: This reflects an average opinion. The backpack is functional and
fulfills its essential purpose. However, the reviewer finds it unremarkable
and lacking any standout features deserving of higher praise.
Rating (integer): 3
\n\n
Review: 'The waist belt broke on my first trip! Customer service was unresponsive too. Would not recommend.'
Analysis: A serious product defect and poor customer service experience naturally warrants the lowest possible rating. The reviewer is extremely unsatisfied with both the product and the company.
Rating (integer): 1
\n\n
Review: 'Love how many pockets and compartments it has. Keeps everything organized on long trips. Durable too!'
Analysis: The enthusiastic review highlights specific features the user loves (organization and durability), indicating great satisfaction with the product. This justifies the highest rating.
Rating (integer): 5
\n\n
Review: 'The straps are a bit flimsy, and they started digging into my shoulders under heavy loads.'
Analysis: While not a totally negative review, a significant comfort issue leads the reviewer to rate the product poorly. The straps are a key component of a backpack, and their failure to perform well under load is a major flaw.
Rating (integer): 1
\n\n
Now, here is the review you need to assess:
\n
Review: "${review}" \n`;
ورودی (بررسی) | خروجی با LLM کوچکتر (Gemma 2B) |
---|---|
کاملا عاشق تناسب اندام! وزن را به خوبی توزیع می کند و حتی در سفرهای تمام روز به طرز شگفت انگیزی راحت است. توصیه می کند. | تجزیه و تحلیل: این بررسی بسیار مثبت است و بر تناسب و راحتی محصول تأکید دارد که نشان دهنده رضایت زیاد از محصول است. این امتیاز بالا را توجیه می کند. رتبه (عدد صحیح): 5 |
تسمه ها سست هستند و زیر بارهای سنگین شروع به فرو بردن شانه هایم کردند. | **تحلیل:** بررسی مشکل راحتی قابل توجهی را در مورد تسمه ها نشان می دهد. همچنین نشان می دهد که این محصول ممکن است برای بارهای سنگین یا گردش های طولانی مدت مناسب نباشد. **امتیاز:** 1 (بدترین) |
اعلان دقیقتر ما، همراه با تکنیکهای تحریک چند عکس و زنجیرهای از فکر، رتبهبندی دقیقتری ارائه میدهد.
انتظار تجزیه دستی خروجی را داشته باشید
در حالی که همیشه باید خروجی LLM را به صورت دستی پاکسازی و تفسیر کنید، این امر به ویژه برای LLM های کوچکتر که ممکن است نتایج صیقلی کمتری تولید کنند و ممکن است به درخواست زنجیره ای نیاز داشته باشند صادق است.
در مثال اول، از اعلان زنجیرهای از فکر استفاده کردیم، بنابراین خروجی شامل تجزیه و تحلیل و رتبهبندی میشود و باید به صورت دستی برای رتبهبندی تجزیه و تحلیل کنیم. همچنین به قالب بندی متناقض در خروجی قسمت قبل توجه کنید: مدل گاهی اوقات نشانه گذاری را خروجی می دهد، اما نه هر بار.
// Use try/catch to catch (parsing) errors
try {
// Parse the output for a rating
const int = /[1-5]/;
const ratingAsString = llmOutput.match(int)[0];
// Parse as int
const ratingAsInt = parseInt(ratingAsString);
// `checkRating` checks the rating is a number between 1 and 5, since the
// regEx may catch a number like "100"
const finalRating = checkRating(ratingAsInt);
} catch (e) {
console.error('Error', e);
}
تفاوت های ذهنی API
API های ابری LLM مانند Gemini API یا OpenAI، که معمولاً نقطه ورود به LLM های بزرگتر هستند، ویژگی های سریع و مفیدی را ارائه می دهند. به عنوان مثال، Gemini 1.5 Pro دستورالعمل های سیستم و حالت JSON را ارائه می دهد.
در حال حاضر، این ویژگیها همیشه برای استفاده از مدل سفارشی یا برای LLMهای کوچکتر که با استفاده از APIهای هوش مصنوعی درون مرورگر قابل دسترسی هستند، مانند MediaPipe LLM Inference API یا Transformers.js در دسترس نیستند. در حالی که این لزوماً یک محدودیت فنی نیست، APIهای هوش مصنوعی درون مرورگر کمتر هستند.
محدودیت های رمزی ذهن
از آنجایی که درخواست شما برای LLM های کوچکتر باید شامل مثال ها یا دستورالعمل های دقیق تری باشد، احتمالا طولانی تر خواهد بود و در صورت وجود محدودیت توکن ورودی شما، بیشتر خواهد بود.
علاوه بر این، مدلهای کوچکتر معمولاً محدودیت رمز ورودی کوچکتری دارند. به عنوان مثال، Gemini 1.5 Pro دارای محدودیت رمز ورودی 1 میلیونی است در حالی که مدلهای Gemma دارای یک پنجره زمینه 8K هستند.
از توابع شمارش رمز برای جلوگیری از رسیدن به حد مجاز استفاده کنید.
برآورد زمان خود را تطبیق دهید
طراحی و آزمایش سریع را در برآوردهای زمانی مهندسی خود در نظر بگیرید.
با توجه به تفاوتهای API و محدودیتهای توکن، احتمالاً به زمان و تلاش بیشتری برای ایجاد درخواست خود برای یک LLM کوچکتر از یک بزرگتر نیاز دارید. آزمایش و اعتبارسنجی خروجی LLM نیز ممکن است تلاش بیشتری باشد.
مهندس سریع در مقابل تنظیم دقیق؟
برای توسعه دهندگان وب، مهندسی سریع روش ترجیحی ما برای استفاده از هوش مصنوعی مولد نسبت به آموزش سفارشی و تنظیم دقیق است. اما حتی مهندسی سریع پیشرفته ممکن است در برخی موارد استفاده کافی نباشد، به خصوص اگر از یک LLM کوچکتر استفاده می کنید.
از تنظیم دقیق زمانی استفاده کنید که:
- شما برای یک کار خاص به دقت و عملکرد درجه یک نیاز دارید. تنظیم دقیق به طور مستقیم پارامترهای داخلی مدل را برای نتایج بهینه تنظیم می کند.
- شما داده های به خوبی تنظیم شده، مرتبط با وظیفه خود، که قبلاً با خروجی های ترجیحی برچسب گذاری شده اند، دارید. برای تنظیم دقیق به این داده ها نیاز دارید.
- شما به طور مکرر از مدل برای همان هدف استفاده می کنید. تنظیم دقیق را می توان یک بار انجام داد و دوباره برای یک کار خاص استفاده کرد.