MEVZU N°129ISTANBULYEAR I — VOL. III
MEVZU N° ETIKET / VOL. 012
#alignment
0 blog · 0 haber · 5 wiki
§03
05Wiki
§01Sözlük
Hizalama (Alignment)
Bir AI sisteminin amaçlarını ve davranışlarını insan değerleri ve niyetlerine yaklaştırma sorunu.
- EN
- Alignment
- TR
- Hizalama (Alignment)
§02Sözlük
RLHF — İnsan Geri Bildirimiyle Pekiştirmeli Öğrenme
İnsan tercihlerini ödül modeline dönüştürerek LLM'i bu ödüle göre optimize eden hizalama tekniği.
- EN
- RLHF (Reinforcement Learning from Human Feedback)
- TR
- RLHF — İnsan Geri Bildirimiyle Pekiştirmeli Öğrenme
§03Sözlük
Anayasal Yapay Zeka
Modelin kendi çıktılarını yazılı bir ilkeler setine göre eleştirip düzelttiği Anthropic hizalama tekniği.
- EN
- Constitutional AI
- TR
- Anayasal Yapay Zeka
§04Sözlük
DPO — Doğrudan Tercih Optimizasyonu
RLHF'in karmaşık RL adımı olmadan, tercih verisinden doğrudan model güncellemesi yapan yöntem.
- EN
- DPO (Direct Preference Optimization)
- TR
- DPO — Doğrudan Tercih Optimizasyonu
§05Sözlük
RLAIF — AI Geri Bildirimiyle Pekiştirmeli Öğrenme
İnsan etiketçiler yerine başka bir LLM'i tercih sinyali kaynağı olarak kullanan hizalama yaklaşımı.
- EN
- RLAIF (RL from AI Feedback)
- TR
- RLAIF — AI Geri Bildirimiyle Pekiştirmeli Öğrenme