§ wiki.title / wiki.types.glossary
wiki.typeDescriptions.glossary
§ wiki.search.scopeLabel
wiki.search.title →Bir LLM'in tek seferde işleyebileceği maksimum token sayısı.
Bir model çağrısındaki toplam token sayısı; bağlam penceresi sınırı içinde tüketilen alan.
Sık görülen karakter çiftlerini birleştirerek alt-kelime sözlüğü kuran tokenleştirme algoritması.
Bir dizinin başka bir diziye dikkat ettiği, encoder ve decoder'ı birbirine bağlayan mekanizma.
Dikkat mekanizmasının paralel birden çok 'başla' aynı anda farklı ilişkileri öğrendiği versiyon.
Önceki tokenlerin üzerine sıradaki tokeni üreten Transformer bileşeni.
Modelin bir girdideki farklı parçalara ne kadar 'dikkat' edeceğini öğrenen mekanizma.
Girdiyi anlamlı bir iç temsile dönüştüren Transformer bileşeni.
LLM'lerin akıcı ama yanlış cevap üretmesini halüsinasyondan daha doğru biçimde tarif eden terim.
İki vektör arasındaki açıyı temel alarak benzerlik ölçen, -1 ile 1 arasında değer üreten yöntem.
Bir dizinin her elemanının aynı dizideki diğer elemanlara dikkat etmesi.
Boşluk dahil her şeyi karakter olarak gören, dilden bağımsız Google tokenleştirme kütüphanesi.
Modelin çıktı dağılımını ne kadar 'yaratıcı' ya da 'kararlı' yapacağını ayarlayan parametre.
Ham metni model tarafından işlenebilir token dizisine dönüştürme süreci.
Sıradaki tokeni seçerken sadece en olası K aday arasından örnekleme yapma yöntemi.
Olasılıkları toplandığında P eşiğini geçen en küçük aday kümesinden örnekleme yapma yöntemi.
Yüz binlerce hatta milyonlarca tokenlık bağlamı işleyebilen yeni nesil LLM'ler.
Yön ve büyüklük taşıyan, bir noktayı yüksek boyutlu uzayda temsil eden sayı dizisi.
Google'ın BERT için kullandığı, BPE'ye benzer ama olasılık tabanlı çalışan alt-kelime algoritması.