Schița de curs

Introducere în Reinforcement Learning de la Feedback Umân (RLHF)

  • Ce este RLHF și de ce este important
  • Comparare cu metodele de finetuning supraveghere
  • Aplicațiile RLHF în sistemele moderne AI

Modelarea Reward cu Feedback Umân

  • Colecționarea și structurarea feedbackului uman
  • Construirea și antrenamentul modelelor de reward
  • Evaluarea eficacității modelelor de reward

Antrenament cu Optimizare a Politicii Proximale (PPO)

  • Pregătire generală a algoritmilor PPO pentru RLHF
  • Implementarea PPO cu modele de reward
  • Finetuning iterativ și sigur al modelelor

Aplicații Practice ale Modelelor Limbajei

  • Pregătirea seturilor de date pentru fluxurile de lucru RLHF
  • Antrenament manual finutunat al unui LLM mic folosind RLHF
  • Sfide și strategii de mitigare

Scalarea RLHF la Sistemele de Producție

  • Considerații infrastructurale și de calcul
  • Așigurarea calității și bucle continue de feedback
  • Best practices pentru implementare și menținere

Considerațiile Etice și Mitigația Biasei

  • Abordarea riscurilor etice în feedback-ul uman
  • Strategii de detecție și corectare a biasei
  • Așigurarea alinierii și ale iesirilor sigure

Cazuri Studiu și Exemple din Lumea Reală

  • Caz de studiu: Finetuning ChatGPT cu RLHF
  • Alte implementări reușite ale RLHF
  • Lezioni învățate și perspecțiuni industriale

Rezumat și Următoarele Pași

Cerințe

  • O înțelegere a fundamentelor învățării supravegheat și a învățării prin recompense
  • Experiență cu ajustarea modelului și arhitecturile de rețele neuronale
  • Familiaritate cu Python programare și cadre pentru învățarea profundă (de exemplu, TensorFlow, PyTorch)

Publicul vizat

  • Ingineri Machine Learning
  • Cercetători AI
 14 ore

Numărul de participanți


Pret per participant

Upcoming Courses

Categorii înrudite