Site aramanızı bir üst seviyeye taşıyın: Üretken yapay zeka ile içeriğe dayalı yanıtlar

Üretken yapay zeka, metin, resim, müzik, ses ve video gibi yeni içerikler oluşturmak için yapay zekanın kullanılmasını ifade eder. Üretken yapay zeka, insanlar tarafından oluşturulan içeriklerden oluşan bir veri kümesindeki kalıpları ve ilişkileri öğrenmek için makine öğrenimi modelinden yararlanır.

Bu teknoloji, Gemini gibi uygulamalarla inanılmaz yetenekler gösterdi. Üretken yapay zeka araçlarını web ürünlerime nasıl uygulayacağımı merak ediyor olabilirsiniz.

Yaygın bir kullanım alanı, kullanıcılara bir web sitesinin içeriği hakkında soru sormak için daha iyi bir arayüz sunmaktır. Makine öğreniminin yardımıyla kullanıcınızın arama sonuçlarını önemli ölçüde iyileştirebilirsiniz.

Kullanıcıların sorularını yazdıkları bir arayüz oluşturabilirsiniz. Bu arayüz daha sonra Gemini gibi büyük bir dil modeline (LLM) gönderilir ve ardından yanıtları kullanıcılarınıza gösterir.

Bu sitede böyle bir özelliğin olduğunu varsayalım. Bir kullanıcı, hangi API'lerin Interop 2024'e dahil olduğunu öğrenmek istiyor ve aşağıdaki sorguyu giriyor:

What are the features included in Interop 24?

Ne yazık ki çıkış, birkaç nedenden dolayı büyük olasılıkla yanlış olacaktır:

  • Kullanıcı, soru için LLM'ye dair çok az bağlam bilgisi sağladığından LLM yanlış yanıtlar veya halüsinasyonlar döndürmeye daha yatkındır.
  • LLM muhtemelen Interop 2024 oluşturulmadan veya özellikleri karardan önce eğitilmiş olduğundan bu bilginin farkında değildir.

LLM'lerin daha güncel bilgiler bulması mümkün olsa da LLM eğitim veri kümeleri, yapısı gereği güncel değildir. Yeni sonuçlar elde etmek son derece zaman alıcı ve pahalı olabilir.

İstem mühendisliği özelliğini kullan

İstem mühendisliği, LLM'den en iyi sonucu almak için kullanılan bir dizi tekniktir.

Tekniklerden biri, istemde ek bağlam bilgisi sağlayarak LLM'nin bağlamla ilgili içerik üretme ihtimalini artırmaktır.

Interop örneğimizden devam edelim. İlk adımımız, bağlam olarak makalenin tam içeriğini sağlamaktır. Ardından soruyu LLM'nin cevaplaması için giriş olarak ekleyin. Örneğin:

Context:
Following on from the success of Interop 2022 and Interop 2023, we
are excited about the opportunity to collaborate once again with
all key browser vendors and other relevant stakeholders...
(trimmed to fit in this article)

Input:
What are the features included in Interop 2024?

Gemini'ın çıktısının aşağıdakine benzer olmasını bekleyebilirsiniz:

The features included in Interop 24 are Accessibility, CSS Nesting, Custom
Properties, Declarative Shadow DOM, font-size-adjust, HTTPS URLs for
WebSocket, IndexedDB, Layout, Pointer and Mouse Events, Popover, Relative
Color Syntax, requestVideoFrameCallback, Scrollbar Styling, @starting-style
and, transition-behavior, Text Directionality, text-wrap: balance,URL

Bağlam bilgisi olmayan istemlerden ziyade, sağlanan bağlama göre bu yanıt büyük olasılıkla daha iyidir.

RAG ile ölçeği artırın

Örneğin, tek bir makaleyle ilgili bir soruyu yanıtlamak yerine, LLM'nin web.dev hakkında daha fazla soruyu yanıtlamasını istiyoruz. Bunun için herhangi bir makaleyi ek bağlam olarak kullanabiliriz. Gemini 1.5'in 1 milyon jetonluk bağlam penceresi düşünüldüğünde daha küçük siteler için bu mümkün olsa da daha büyük istemlerin çalışması daha yavaş ve daha pahalıdır.

LLM giriş ve çıkış uzunlukları, jetonlar halinde ölçülür ve ücretlendirilir. Bunlar, bir metin girişinde bulunan ortak karakter dizisini temsil etmenin bir yoludur. Jeton sayısı genellikle kelime sayısından büyük olur. Örneğin, ilk örnekteki giriş 1.097 jetonla temsil edilen 775 kelimeden oluşmaktadır. Farklı LLM'ler jetonları farklı şekilde hesaplayabilir ve bunların çoğu metin girişi için jeton sayısını hesaplamak üzere bir API veya uç nokta sağlar.

Çözümlerden biri, LLM'nin istemiyle alakalı makaleler sunmaktır. Bu görev iki bölüme karşılık gelmelidir:

  1. LLM istenirken en çok okunan makalelerin içeriğini bağlam olarak ekleyin.
  2. "Birlikte çalışabilirlik 2024'teki özellikler nelerdir?" konulu makalelerin içeriğinde arama yapın.

Gemini sonuçlarının aşağıdaki makalelere göre içerik döndürmesini istiyoruz:

Giriş aşağıdaki gibi görünmelidir:

Context:
Article 1:
Over the past two years... (trimmed)

Article 2:
At the end of last year Interop 2023 wrapped up. This effort... (trimmed)

Article 3:
Following on from the success of Interop 2022... (trimmed)

Input:
What are the features included in Interop 2024?

Bu bağlamda beklediğimiz sonucu elde ederiz.

* Accessibility * CSS Nesting * Custom Properties
* Declarative Shadow DOM * font-size-adjust
* HTTPS URLs for WebSocket * IndexedDB * Layout
* Pointer and Mouse Events * Popover * Relative Color Syntax
* requestVideoFrameCallback * Scrollbar Styling
* @starting-style and transition-behavior * Text Directionality
* text-wrap: balance * URL

Yapay zeka tekniklerine aşina olanlar için bu yaklaşım, üretken yapay zeka araçlarından gerçek yanıtları alma olasılığını artırmak amacıyla yaygın bir uygulama olan RAG'yi kullanır.

RAG tekniği normal tam metin aramasıyla çalışabilse de, bu yaklaşımda bazı eksiklikler vardır.

  • Tam metin arama, yapay zekanın tam anahtar kelime eşlemelerini bulmasına yardımcı olur. Ancak LLM'ler, kullanıcı sorgusunun amacını belirleyemez. Bu durum, çıktıların eksik veya yanlış olmasına yol açabilir.
  • Kelimelerin birden fazla anlamı olduğunda veya sorgular eş anlamlılar kullandığında sorunlar yaşanabilir. Örneğin, "banka" (finansal kurum veya nehir bankası) alakasız sonuçlara yol açabilir.
  • Tam metin araması, anahtar kelimeleri içeren ancak kullanıcının hedefine uymayan sonuçlar doğurabilir.

Anlamsal arama, aşağıdaki temel unsurlara odaklanarak arama doğruluğunu iyileştirmeye yönelik bir tekniktir:

  • Arama yapan kişinin amacı: Kullanıcının bir şeyi neden aradığını anlamaya çalışır. Neyi bulmak veya başarmak istiyorlar?
  • Bağlamsal anlam: Kelimeleri ve ifadeleri, çevrelerindeki metinlerle birlikte, kullanıcının konumu veya arama geçmişi gibi diğer faktörlere göre yorumlar.
  • Kavramlar arasındaki ilişki: Anlamsal aramada, kelimeler ile fikirlerin nasıl bağlantı kurduğunu anlamak için bilgi grafikleri (alakalı varlıkların yer aldığı büyük ağlar) ve doğal dil işleme kullanılır.

Sonuç olarak, anlamsal arama özelliğine sahip araçlar oluşturduğunuzda arama çıktısı, anahtar kelimeler yerine sorgunun genel amacına dayanır. Diğer bir deyişle, anahtar kelime tam olarak bulunmasa bile, bir araç alakalı belgeleri belirleyebilir. Kelimenin mevcut olup olmamasına rağmen farklı bir anlama geldiği sonuçlardan da kaçınabilir.

Şu anda, anlamsal aramayı kullanan iki arama aracı uygulayabilirsiniz: Vertex AI Search ve Algolia AI Search.

Yayınlanan içerikten yanıtlar alma

İsteme bağlam ekleyerek daha önce hiç görülmemiş içeriklerle ilgili yanıtlar sağlaması için LLM'yi etkinleştirmek amacıyla istem mühendisliğini nasıl kullanacağınızı öğrendiniz. Alma-Artırılmış Nesil (RAG) tekniğini kullanarak bu yaklaşımı tek tek makalelerden tüm içerik kitaplığına ölçeklendirmeyi öğrendiniz. Anlamsal aramanın, kullanıcı arama sorgularındaki sonuçları nasıl daha da iyileştirebileceğini ve RAG'yi ürününüze daha iyi entegre etmeyi öğrendiniz.

Üretken yapay zeka araçlarının "halüsinasyon" sorunu nedeniyle işletmeye en iyi, bazen güvenilmez veya en kötü durumda da şirket için aktif olarak zararlı olabileceği bilinen bir sorundur. Hem kullanıcılar hem de geliştiriciler bu tekniklerle güvenilirliği artırabilir ve belki de bu uygulamalardan elde edilen sonuçlarla ilgili güven inşa edebilirler.