Notice
Recent Posts
Recent Comments
Link
04-10 18:16
«   2025/04   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30
Archives
Today
Total
관리 메뉴

AI 전문가가 되고싶은 사람

Transformer에서 LLM 초기까지의 학습 단계 본문

개인 공부

Transformer에서 LLM 초기까지의 학습 단계

Kimseungwoo0407 2024. 12. 10. 18:40

Pretraining과 Fine-Tuning의 이해

Transformer 기반 모델이 어떻게 Pretraining과 Fine-Tuning을 활용하는지 이해합니다.

https://seungwoo0407.tistory.com/73

 

BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding

Introduction최근 자연어 처리(NLP) 분야는 언어 모델의 사전 훈련(pre-training)을 통해 크게 발전하고 있다. 특히 BERT(Bidirectional Encoder Representations from Transformers)는 기존 모델의 한계를 극복하며 다양한

seungwoo0407.tistory.com

 

 

 

 

 

LLM 초기 모델 탐구

LLM의 초기 모델이 어떻게 발전했는지 살펴봅니다.

 

Fine-Tuning의 확장: T5와 BART

Encoder-Decoder 구조를 활용한 모델에 대해 학습합니다.

 

Scaling Laws와 LLM 설계 원칙

LLM의 성능이 모델 크기, 데이터, 컴퓨팅 자원에 어떻게 의존하는지 분석합니다.

 

효율적 모델 학습 전략

모델의 크기를 줄이고 효율성을 높이는 방법에 대해 학습합니다.

 

Reinforcement Learning과 Human Feedback

사용자 피드백을 활용한 LLM의 Fine-Tuning 기법을 학습합니다.