Notice
Recent Posts
Recent Comments
Link
03-08 18:24
목록개인 공부 (1)
AI 전문가가 되고싶은 사람
Transformer에서 LLM 초기까지의 학습 단계
Pretraining과 Fine-Tuning의 이해Transformer 기반 모델이 어떻게 Pretraining과 Fine-Tuning을 활용하는지 이해합니다.BERT (Bidirectional Encoder Representations from Transformers)논문: BERT: Pre-training of Deep Bidirectional Transformers for Language Understandinghttps://seungwoo0407.tistory.com/73 BERT: Pre-training of Deep Bidirectional Transformers forLanguage UnderstandingIntroduction최근 자연어 처리(NLP) 분야는 언어 모델의 사전 훈련(pre-..
개인 공부
2024. 12. 10. 18:40