📚\u05DE\u05D5\u05D3\u05D5\u05DCModule 1 - \u05D9\u05E1\u05D5\u05D3\u05D5\u05EA
🎓\u05E9\u05D9\u05E2\u05D5\u05E80 \u05DE\u05EA\u05D5\u05DA 14
⏲\u05DE\u05E9\u05DA~6 \u05D3\u05E7\u05D5\u05EA
📈\u05E8\u05DE\u05D4\u05DE\u05EA\u05D7\u05D9\u05DC\u05D9\u05DD
TAKEAWAY 1
Pre-training vs Fine-Tuning
Pre-training \u05E2\u05D5\u05DC\u05D4 $60-100M+. Fine-Tuning \u05E2\u05D5\u05DC\u05D4 $3-$12. \u05D0\u05D5\u05EA\u05D4 \u05EA\u05D5\u05E6\u05D0\u05D4, \u05E2\u05DC\u05D5\u05EA \u05E9\u05D5\u05E0\u05D4 \u05DC\u05D7\u05DC\u05D5\u05D8\u05D9\u05DF.
TAKEAWAY 2
DPO \u05D4\u05E9\u05D9\u05D8\u05D4 \u05D4\u05D3\u05D5\u05DE\u05D9\u05E0\u05E0\u05D8\u05D9\u05EA
Direct Preference Optimization \u05D4\u05D7\u05DC\u05D9\u05E3 \u05D0\u05EA RLHF \u05DB\u05E9\u05D9\u05D8\u05D4 \u05D4\u05E2\u05D3\u05E4\u05D5\u05EA \u05D4\u05DE\u05D5\u05D1\u05D9\u05DC\u05D4 \u05D1-2025-2026
TAKEAWAY 3
Decision Framework
Prompting \u05DC\u05DE\u05D4\u05D9\u05E8\u05D5\u05EA, RAG \u05DC\u05D9\u05D3\u05E2, Fine-Tuning \u05DC\u05E1\u05D2\u05E0\u05D5\u05DF \u05D5-Volume \u05D2\u05D1\u05D5\u05D4. \u05D4\u05E9\u05D9\u05DC\u05D5\u05D1 \u05D4\u05DB\u05D9 \u05D7\u05D6\u05E7.
TAKEAWAY 4
\u05E7\u05E8\u05D9\u05D9\u05E8\u05D4 \u05D5\u05E2\u05DC\u05D5\u05D9\u05D5\u05EA
\u05DE\u05E9\u05DB\u05D5\u05E8\u05D5\u05EA $150K-$300K+, LoRA \u05DE\u05E7\u05D8\u05D9\u05DF \u05E2\u05DC\u05D5\u05D9\u05D5\u05EA 2-4x, Break-even \u05D1-10M-100M tokens
1
\u05DE\u05D4 \u05D4\u05EA\u05D5\u05E6\u05D0\u05D4 \u05E9\u05DC Pre-training?
Instruct Model \u05E9\u05E2\u05D5\u05E7\u05D1 \u05D0\u05D7\u05E8\u05D9 \u05D4\u05D5\u05E8\u05D0\u05D5\u05EA
\u05DE\u05D5\u05D3\u05DC \u05D1\u05E1\u05D9\u05E1 \u05E9\u05DE\u05E9\u05DC\u05D9\u05DD \u05D8\u05E7\u05E1\u05D8 \u05D0\u05D1\u05DC \u05DC\u05D0 \u05E2\u05D5\u05E7\u05D1 \u05D0\u05D7\u05E8\u05D9 \u05D4\u05D5\u05E8\u05D0\u05D5\u05EA
\u05E6\u05F3\u05D0\u05D8\u05D1\u05D5\u05D8 \u05DE\u05D5\u05DB\u05DF \u05DC\u05E9\u05D9\u05DE\u05D5\u05E9
\u05DE\u05D5\u05D3\u05DC \u05E2\u05DD \u05D4\u05E2\u05D3\u05E4\u05D5\u05EA \u05D0\u05E0\u05D5\u05E9\u05D9\u05D5\u05EA
2
\u05DE\u05D4 \u05D4\u05D9\u05EA\u05E8\u05D5\u05DF \u05E9\u05DC DPO \u05E2\u05DC RLHF?
\u05DE\u05D5\u05D3\u05DC \u05D2\u05D3\u05D5\u05DC \u05D9\u05D5\u05EA\u05E8
\u05D9\u05D5\u05EA\u05E8 \u05E0\u05EA\u05D5\u05E0\u05D9 \u05D0\u05D9\u05DE\u05D5\u05DF
\u05DC\u05D0 \u05E6\u05E8\u05D9\u05DA Reward Model \u05D5-RL \u05E0\u05E4\u05E8\u05D3\u05D9\u05DD - \u05E4\u05E9\u05D5\u05D8 \u05D5\u05D9\u05E6\u05D9\u05D1 \u05D9\u05D5\u05EA\u05E8
\u05E2\u05D5\u05D1\u05D3 \u05E8\u05E7 \u05E2\u05DD \u05DE\u05D5\u05D3\u05DC\u05D9\u05DD \u05E7\u05D8\u05E0\u05D9\u05DD
3
\u05DE\u05EA\u05D9 \u05E2\u05D3\u05D9\u05E3 Fine-Tuning \u05E2\u05DC Prompting?
\u05EA\u05DE\u05D9\u05D3 - Fine-Tuning \u05EA\u05DE\u05D9\u05D3 \u05E2\u05D3\u05D9\u05E3
\u05E8\u05E7 \u05DB\u05E9\u05D4\u05DE\u05D5\u05D3\u05DC \u05DC\u05D0 \u05E2\u05D5\u05D1\u05D3
\u05DB\u05E9\u05E6\u05E8\u05D9\u05DA \u05E1\u05D2\u05E0\u05D5\u05DF \u05E1\u05E4\u05E6\u05D9\u05E4\u05D9, \u05D8\u05D5\u05DF, \u05D0\u05D5 \u05E2\u05DC\u05D5\u05EA per-call \u05E0\u05DE\u05D5\u05DB\u05D4 \u05D1-Volume \u05D2\u05D1\u05D5\u05D4
\u05E8\u05E7 \u05DB\u05E9\u05D9\u05E9 \u05D9\u05D5\u05EA\u05E8 \u05DE-1000 \u05D3\u05D5\u05D2\u05DE\u05D0\u05D5\u05EA
4
\u05DE\u05D4 \u05D4\u05E9\u05D9\u05DC\u05D5\u05D1 \u05D4\u05D7\u05D6\u05E7 \u05D1\u05D9\u05D5\u05EA\u05E8 \u05DC\u05E4\u05D9 \u05D4\u05E9\u05D9\u05E2\u05D5\u05E8?
Prompting + RAG
Fine-Tune + RAG
RLHF + DPO
Pre-training + SFT
🚀 UP NEXT
\u05E9\u05D9\u05E2\u05D5\u05E8 1: \u05D0\u05E8\u05DB\u05D9\u05D8\u05E7\u05D8\u05D5\u05E8\u05EA Transformer - Attention, Layers, Embeddings
\u05D1\u05E9\u05D9\u05E2\u05D5\u05E8 \u05D4\u05D1\u05D0 \u05E0\u05E6\u05DC\u05D5\u05DC \u05DC\u05E2\u05D5\u05DC\u05DD \u05E9\u05DC \u05D0\u05E8\u05DB\u05D9\u05D8\u05E7\u05D8\u05D5\u05E8\u05EA Transformer, \u05D0\u05D9\u05DA Self-Attention \u05E2\u05D5\u05D1\u05D3, \u05DE\u05D4 \u05D6\u05D4 Layers, \u05D5\u05D0\u05D9\u05DA Embeddings \u05DE\u05D9\u05D9\u05E6\u05D2\u05D9\u05DD \u05DE\u05D9\u05DC\u05D9\u05DD.
Self-Attention
Multi-Head Attention
Feed-Forward Layers
Embeddings
Positional Encoding