MEVZU N°127ISTANBULYEAR I — VOL. III
tag.detailKicker
#alignment
tag.detailSubtitle
§03
05tag.wikiSection
§01wiki.types.glossary
Hizalama (Alignment)
Bir AI sisteminin amaçlarını ve davranışlarını insan değerleri ve niyetlerine yaklaştırma sorunu.
- EN
- Alignment
- TR
- Hizalama (Alignment)
§02wiki.types.glossary
RLHF — İnsan Geri Bildirimiyle Pekiştirmeli Öğrenme
İnsan tercihlerini ödül modeline dönüştürerek LLM'i bu ödüle göre optimize eden hizalama tekniği.
- EN
- RLHF (Reinforcement Learning from Human Feedback)
- TR
- RLHF — İnsan Geri Bildirimiyle Pekiştirmeli Öğrenme
§03wiki.types.glossary
Anayasal Yapay Zeka
Modelin kendi çıktılarını yazılı bir ilkeler setine göre eleştirip düzelttiği Anthropic hizalama tekniği.
- EN
- Constitutional AI
- TR
- Anayasal Yapay Zeka
§04wiki.types.glossary
DPO — Doğrudan Tercih Optimizasyonu
RLHF'in karmaşık RL adımı olmadan, tercih verisinden doğrudan model güncellemesi yapan yöntem.
- EN
- DPO (Direct Preference Optimization)
- TR
- DPO — Doğrudan Tercih Optimizasyonu
§05wiki.types.glossary
RLAIF — AI Geri Bildirimiyle Pekiştirmeli Öğrenme
İnsan etiketçiler yerine başka bir LLM'i tercih sinyali kaynağı olarak kullanan hizalama yaklaşımı.
- EN
- RLAIF (RL from AI Feedback)
- TR
- RLAIF — AI Geri Bildirimiyle Pekiştirmeli Öğrenme