MEVZU N° ETIKET / VOL. 019
#architecture
0 blog · 0 haber · 13 wiki
Wiki
Uzmanlar Karışımı (MoE)
Her tokende sadece bir alt küme uzman alt-ağı aktive eden, devasa kapasiteyi düşük çıkarım maliyetiyle birleştiren mimari.
- EN
- Mixture of Experts (MoE)
- TR
- Uzmanlar Karışımı (MoE)
Özyinelemeli Model (Autoregressive)
Sıradaki tokeni önceki tokenlere bakarak adım adım üreten model türü.
- EN
- Autoregressive Model
- TR
- Özyinelemeli Model
Cross-encoder
Sorgu ve aday belgeyi birlikte işleyerek ilgilik puanı üreten transformer mimarisi.
- EN
- Cross-encoder
- TR
- Cross-encoder
Orkestratör (Orchestrator)
Birden çok ajan, model ya da aracın koşturmasını planlayıp koordine eden ana bileşen.
- EN
- Orchestrator
- TR
- Orkestratör
Alt-Ajan (Subagent)
Bir ana ajanın belirli bir alt görev için kendi promptu ve araçlarıyla çağırdığı ikincil ajan.
- EN
- Subagent
- TR
- Alt-Ajan
Çok-Ajanlı Sistem
Birden fazla AI ajanının işbirliği, müzakere ya da iş bölümü ile bir hedefe ulaştığı sistem.
- EN
- Multi-agent System
- TR
- Çok-Ajanlı Sistem
Encoder (Kodlayıcı)
Girdiyi anlamlı bir iç temsile dönüştüren Transformer bileşeni.
- EN
- Encoder
- TR
- Kodlayıcı (Encoder)
Öz-Dikkat (Self-Attention)
Bir dizinin her elemanının aynı dizideki diğer elemanlara dikkat etmesi.
- EN
- Self-Attention
- TR
- Öz-Dikkat
Dikkat (Attention)
Modelin bir girdideki farklı parçalara ne kadar 'dikkat' edeceğini öğrenen mekanizma.
- EN
- Attention
- TR
- Dikkat (Attention)
Decoder (Çözücü)
Önceki tokenlerin üzerine sıradaki tokeni üreten Transformer bileşeni.
- EN
- Decoder
- TR
- Çözücü (Decoder)
Çapraz-Dikkat (Cross-Attention)
Bir dizinin başka bir diziye dikkat ettiği, encoder ve decoder'ı birbirine bağlayan mekanizma.
- EN
- Cross-Attention
- TR
- Çapraz-Dikkat
Transformer
Tüm modern LLM'lerin temelinde yer alan, dikkat mekanizmasına dayanan sinir ağı mimarisi.
- EN
- Transformer
- TR
- Transformer
Çok-Başlı Dikkat (Multi-Head Attention)
Dikkat mekanizmasının paralel birden çok 'başla' aynı anda farklı ilişkileri öğrendiği versiyon.
- EN
- Multi-head Attention
- TR
- Çok-Başlı Dikkat