Site aramanızı bir üst seviyeye taşıyın: Üretken yapay zeka ile içeriğe dayalı yanıtlar

Üretken yapay zeka, metin, resim, müzik, ses ve video gibi yeni içerikler oluşturmak için yapay zekanın kullanılmasını ifade eder. Üretken yapay zeka, insan tarafından oluşturulan içeriklerden oluşan bir veri kümesindeki kalıpları ve ilişkileri öğrenmek için bir makine öğrenimi (ML) modelinden yararlanır.

Bu teknoloji, Gemini gibi uygulamalar aracılığıyla inanılmaz yetenekler sergiledi. Üretken yapay zeka araçlarını web ürünlerime nasıl uygulayacağımı merak ediyor olabilirsiniz.

Sık karşılaşılan kullanım alanlarından biri, kullanıcılara bir web sitesinin içeriği hakkında soru sormaları için daha iyi bir arayüz sunmaktır. Makine öğreniminin yardımıyla kullanıcılarınızın arama sonuçlarını büyük ölçüde iyileştirebilirsiniz.

Kullanıcıların sorularını yazdığı ve ardından Gemini gibi büyük bir dil modeline (LLM) gönderilen ve yanıtların kullanıcılarınıza gösterildiği bir arayüz oluşturabilirsiniz.

Bu sitede böyle bir özelliğin olduğunu varsayalım. Bir kullanıcı, Interop 2024'e hangi API'lerin dahil edildiğini öğrenmek istiyor ve aşağıdaki sorguyu girer:

What are the features included in Interop 24?

Maalesef çıkış, birkaç nedenden dolayı yanlış olabilir:

  • Kullanıcı LLM'ye soru için çok az bağlam sağlamıştır. Bu nedenle, LLM'nin yanlış yanıtlar veya halüsinasyonlar döndürme olasılığı daha yüksektir.
  • LLM muhtemelen Interop 2024 oluşturulmadan veya özellikleri belirlenmeden önce eğitildiği için bu bilgilerden haberdar değildir.

LLM'lerin daha güncel bilgilere ulaşması mümkün olsa da LLM eğitim veri kümeleri doğası gereği eskidir. Güncel sonuçları korumak son derece zaman alıcı ve pahalı olabilir.

İstem mühendisliği

İstem mühendisliği, LLM'den en iyi çıkışı elde etmek için kullanılan bir teknik grubudur.

Bir teknik, istemde ek bağlam sağlamaktır. Bu sayede LLM'nin bağlamla ilgili içerikler üretme olasılığı artar.

Interop örneğimize devam edersek ilk adımımız, makalenin bağlam olarak tüm içeriğini sağlamaktır. Ardından, LLM'nin yanıtlaması için soruyu giriş olarak ekleyin. Örneğin:

Context:
Following on from the success of Interop 2022 and Interop 2023, we
are excited about the opportunity to collaborate once again with
all key browser vendors and other relevant stakeholders...
(trimmed to fit in this article)

Input:
What are the features included in Interop 2024?

Gemini'ın aşağıdakine benzer bir çıktı üretmesini bekleyebilirsiniz:

The features included in Interop 24 are Accessibility, CSS Nesting, Custom
Properties, Declarative Shadow DOM, font-size-adjust, HTTPS URLs for
WebSocket, IndexedDB, Layout, Pointer and Mouse Events, Popover, Relative
Color Syntax, requestVideoFrameCallback, Scrollbar Styling, @starting-style
and, transition-behavior, Text Directionality, text-wrap: balance,URL

Yanıt, sağlanan bağlama dayalı olduğu için bu yanıt, bağlam içermeyen bir istemden çok daha iyi olabilir.

RAG ile ölçeği artırın

Örneğin, tek bir makaleyle ilgili bir soruyu yanıtlamak yerine LLM'nin, ek bağlam olarak herhangi bir makaleyi kullanarak web.dev ile ilgili daha fazla soruyu yanıtlamasını istiyoruz. Bu, Gemini 1.5'in 1 milyon parçalık bağlam penceresi göz önüne alındığında küçük siteler için mümkün olsa da daha büyük istemlerin çalıştırılması daha yavaş ve daha pahalıdır.

LLM giriş ve çıkış uzunlukları, metin girişinde bulunan ortak bir karakter dizisini temsil etmenin bir yolu olan jetonlarla ölçülür ve ücretlendirilir. İşaretçi sayısı genellikle kelime sayısından daha büyüktür. Örnek olarak, ilk örnekteki giriş 1.097 jetonla temsil edilen 775 kelime içeriyordu. Farklı LLM'ler jetonları farklı şekilde hesaplayabilir ve çoğu, metin girişi için jeton sayısını hesaplamak üzere bir API veya uç nokta sağlar.

Bir çözüm, LLM istemiyle alakalı makaleler sağlamaktır. Bu görev iki bölümden oluşmalıdır:

  1. LLM'den bahsederken en çok okunan makalelerin içeriğini bağlam olarak ekleyin.
  2. İçerikte "Interop 2024'e dahil edilen özellikler nelerdir?" ile ilgili makaleleri arayın.

Gemini sonuçlarının aşağıdaki makalelere göre içerik döndürmesini istiyoruz:

Giriş şu şekilde görünmelidir:

Context:
Article 1:
Over the past two years... (trimmed)

Article 2:
At the end of last year Interop 2023 wrapped up. This effort... (trimmed)

Article 3:
Following on from the success of Interop 2022... (trimmed)

Input:
What are the features included in Interop 2024?

Bu bağlam, beklenen çıkışımızı oluşturur.

* Accessibility * CSS Nesting * Custom Properties
* Declarative Shadow DOM * font-size-adjust
* HTTPS URLs for WebSocket * IndexedDB * Layout
* Pointer and Mouse Events * Popover * Relative Color Syntax
* requestVideoFrameCallback * Scrollbar Styling
* @starting-style and transition-behavior * Text Directionality
* text-wrap: balance * URL

Yapay zeka tekniklerine aşina olanlar için bu yaklaşımda, üretken yapay zeka araçlarından gerçek yanıtlar alma olasılığını artırmak için yaygın bir uygulama olan RAG kullanılır.

RAG tekniği normal tam metin aramayla çalışabilir ancak bu yaklaşımın eksiklikleri vardır.

  • Tam metin arama, yapay zekanın tam anahtar kelime eşleşmelerini bulmasına yardımcı olur. Ancak LLM'ler, kullanıcının sorgusunun asıl amacını belirleyemez. Bu durum, sonuçların eksik veya yanlış olmasına yol açabilir.
  • Kelimelerin birden fazla anlamı olduğunda veya sorgularda eş anlamlı kelimeler kullanıldığında sorunlar yaşanabilir. Örneğin, "banka" (finans kurumu veya nehir bankası) alakasız sonuçlara yol açabilir.
  • Tam metin araması, anahtar kelimeleri içeren ancak kullanıcının amacına uygun olmayan sonuçlar döndürebilir.

Anlamsal arama, aşağıdaki temel noktalara odaklanarak arama doğruluğunu artırmaya yönelik bir tekniktir:

  • Arama yapan kullanıcının amacı: Kullanıcının bir şey aramasının nedenini anlamaya çalışır. Kullanıcılar neyi bulmaya veya yapmaya çalışıyor?
  • Bağlama dayalı anlam: Kelimeleri ve kelime öbeklerini, etrafındaki metinle ve kullanıcının konumu veya arama geçmişi gibi diğer faktörlerle ilişkili olarak yorumlar.
  • Kavramlar arasındaki ilişki: Semantik arama, kelimelerin ve fikirlerin nasıl bağlantılı olduğunu anlamak için bilgi grafiklerini (ilgili öğelerin oluşturduğu büyük ağlar) ve doğal dil işleme yöntemlerini kullanır.

Sonuç olarak, anlamsal arama içeren araçlar oluşturduğunuzda arama sonucu, anahtar kelimeler yerine sorgunun genel amacına dayanır. Bu, bir aracın tam anahtar kelime mevcut olmasa bile alakalı dokümanları belirleyebileceği anlamına gelir. Ayrıca, kelimenin bulunduğu ancak farklı bir anlama sahip olduğu sonuçların da önüne geçebilir.

Şu anda semantik arama kullanan iki arama aracını uygulayabilirsiniz: Vertex AI Search ve Algolia AI Search.

Yayınlanan içeriklerden yanıt alma

Bir LLM'nin, hiç görülmemiş içerikle ilgili yanıtlar sağlaması için isteme bağlam bilgisi ekleyerek istem mühendisliğini nasıl kullanacağınızı öğrendiniz. Ayrıca, Almayla Artırılmış Üretim (RAG) tekniğini kullanarak bu yaklaşımı tekil makalelerden tüm içerik kümesine nasıl ölçeklendireceğinizi öğrendiniz. Anlamsal aramanın, kullanıcı arama sorguları için sonuçları nasıl daha da iyileştirebileceğini öğrendiniz ve RAG'yi ürününüze daha iyi uyguladınız.

Üretken yapay zeka araçlarının "halüsinasyon" olabileceği bilinen bir sorundur. Bu da onları en iyi, bazen güvenilmez veya en kötü ihtimalle işletmeler için aktif olarak zararlı kılmaktadır. Bu teknikler sayesinde hem kullanıcılar hem de geliştiriciler güvenilirliği artırabilir ve belki de bu uygulamalardan elde edilen sonuçlara güvenebilir.