İçeriğe atla
MEVZU N°127ISTANBUL

MEVZU N° ETIKET / VOL. 019

#architecture

0 blog · 0 haber · 13 wiki

§03

Wiki

13
§01Sözlük

Uzmanlar Karışımı (MoE)

Her tokende sadece bir alt küme uzman alt-ağı aktive eden, devasa kapasiteyi düşük çıkarım maliyetiyle birleştiren mimari.

EN
Mixture of Experts (MoE)
TR
Uzmanlar Karışımı (MoE)
§02Sözlük

Özyinelemeli Model (Autoregressive)

Sıradaki tokeni önceki tokenlere bakarak adım adım üreten model türü.

EN
Autoregressive Model
TR
Özyinelemeli Model
§03Sözlük

Cross-encoder

Sorgu ve aday belgeyi birlikte işleyerek ilgilik puanı üreten transformer mimarisi.

EN
Cross-encoder
TR
Cross-encoder
§04Sözlük

Orkestratör (Orchestrator)

Birden çok ajan, model ya da aracın koşturmasını planlayıp koordine eden ana bileşen.

EN
Orchestrator
TR
Orkestratör
§05Sözlük

Alt-Ajan (Subagent)

Bir ana ajanın belirli bir alt görev için kendi promptu ve araçlarıyla çağırdığı ikincil ajan.

EN
Subagent
TR
Alt-Ajan
§06Sözlük

Çok-Ajanlı Sistem

Birden fazla AI ajanının işbirliği, müzakere ya da iş bölümü ile bir hedefe ulaştığı sistem.

EN
Multi-agent System
TR
Çok-Ajanlı Sistem
§07Sözlük

Encoder (Kodlayıcı)

Girdiyi anlamlı bir iç temsile dönüştüren Transformer bileşeni.

EN
Encoder
TR
Kodlayıcı (Encoder)
§08Sözlük

Öz-Dikkat (Self-Attention)

Bir dizinin her elemanının aynı dizideki diğer elemanlara dikkat etmesi.

EN
Self-Attention
TR
Öz-Dikkat
§09Sözlük

Dikkat (Attention)

Modelin bir girdideki farklı parçalara ne kadar 'dikkat' edeceğini öğrenen mekanizma.

EN
Attention
TR
Dikkat (Attention)
§10Sözlük

Decoder (Çözücü)

Önceki tokenlerin üzerine sıradaki tokeni üreten Transformer bileşeni.

EN
Decoder
TR
Çözücü (Decoder)
§11Sözlük

Çapraz-Dikkat (Cross-Attention)

Bir dizinin başka bir diziye dikkat ettiği, encoder ve decoder'ı birbirine bağlayan mekanizma.

EN
Cross-Attention
TR
Çapraz-Dikkat
§12Sözlük

Transformer

Tüm modern LLM'lerin temelinde yer alan, dikkat mekanizmasına dayanan sinir ağı mimarisi.

EN
Transformer
TR
Transformer
§13Sözlük

Çok-Başlı Dikkat (Multi-Head Attention)

Dikkat mekanizmasının paralel birden çok 'başla' aynı anda farklı ilişkileri öğrendiği versiyon.

EN
Multi-head Attention
TR
Çok-Başlı Dikkat