목록2024/12/10 (2)
AI 전문가가 되고싶은 사람
Pretraining과 Fine-Tuning의 이해Transformer 기반 모델이 어떻게 Pretraining과 Fine-Tuning을 활용하는지 이해합니다.BERT (Bidirectional Encoder Representations from Transformers)논문: BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingMasked Language Model(MLM)과 Next Sentence Prediction(NSP) 방식 학습Bidirectional 학습 방식의 강점과 활용 사례 이해GPT (Generative Pre-trained Transformer)논문: Improving Language Unde..
Transformer의 마지막 공부는 논문을 리뷰하는 것이라고 해서 논문 리뷰하며 공부해보겠습니다. 논문 링크 : https://arxiv.org/pdf/1706.03762작동 과정에 대한 상세 설명 : https://seungwoo0407.tistory.com/68 Transformerhttps://www.youtube.com/watch?v=p216tTVxues Transformer란?2017년 구글 브레인 팀이 발표한 논문으로, 단순히 딥러닝 기술을 넘어 인공지능의 발전에 있어 중요한 이정표로 자리 잡았다. Transformer는 NLP는 물seungwoo0407.tistory.comhttps://www.youtube.com/watch?v=p216tTVxues&t=1163s서론 1. 배경 및 기존 ..