AI 전문가가 되고싶은 사람
Transformer 리뷰를 위한 공부(완료) 본문
신경망과 시퀀스 모델 학습
Transformer의 등장 배경인 RNN 계열 모델과 Attention 메커니즘 이해
필수 학습 주제
RNN (Recurrent Neural Networks): 순차 데이터 처리 기초
https://seungwoo0407.tistory.com/63
RNN(Recurrent Neural Networks)
RNN의 특징과 활용 사례RNN(순환 신경망)은 시계열 데이터와 순차적인 정보 처리에 특화된 모델이다.이를 통해 순차적인 데이터에서 시간적 의존성을 학습할 수 있다.예를 들어, 주식 가격 예측에
seungwoo0407.tistory.com
LSTM (Long Short-Term Memory) & GRU: 장기 의존성 문제 해결
https://seungwoo0407.tistory.com/64
LSTM(Long Short-Term Memory) + GRU
https://seungwoo0407.tistory.com/62 Transformer 리뷰를 위한 공부신경망과 시퀀스 모델 학습Transformer의 등장 배경인 RNN 계열 모델과 Attention 메커니즘을 이해합니다.필수 학습 주제RNN (Recurrent Neural Networks):
seungwoo0407.tistory.com
Word2Vec
https://seungwoo0407.tistory.com/65
Word2vec
https://seungwoo0407.tistory.com/62 Transformer 리뷰를 위한 공부신경망과 시퀀스 모델 학습Transformer의 등장 배경인 RNN 계열 모델과 Attention 메커니즘을 이해합니다.필수 학습 주제RNN (Recurrent Neural Networks):
seungwoo0407.tistory.com
Seq2Seq (Sequence-to-Sequence) 모델: 기계 번역, 챗봇 등 활용
https://seungwoo0407.tistory.com/66
Seq2seq
김장 도와드리고 오느라 공부를 쉬게 되었네요! 다시 시작해보겠습니다.Word2vec을 공부하였으니 Word2vec 부분이 이해가 가기에 공부해보겠습니다.https://www.youtube.com/watch?v=qwfLTwesx6k&list=LL&index=1&t=176
seungwoo0407.tistory.com
Attention Mechanism: Bahdanau Attention, Luong Attention
https://seungwoo0407.tistory.com/67
Seq2seq+Attention
https://www.youtube.com/watch?v=cu8ysaaNAh0 Attention 매커니즘Seq2Seq 모델은 인코더와 디코더로 구성되어 입력 시퀀스를 압축된 벡터로 변환한 후, 이를 바탕으로 출력 시퀀스를 생성하는 구조이다. 하지만
seungwoo0407.tistory.com
Transformer 핵심 개념 학습
https://seungwoo0407.tistory.com/68
Transformer
https://www.youtube.com/watch?v=p216tTVxues Transformer란?2017년 구글 브레인 팀이 발표한 논문으로, 단순히 딥러닝 기술을 넘어 인공지능의 발전에 있어 중요한 이정표로 자리 잡았다. Transformer는 NLP는 물
seungwoo0407.tistory.com
Transformer 논문 리뷰
https://seungwoo0407.tistory.com/70
Attention Is All You Need
Transformer의 마지막 공부는 논문을 리뷰하는 것이라고 해서 논문 리뷰하며 공부해보겠습니다. 논문 링크 : https://arxiv.org/pdf/1706.03762작동 과정에 대한 상세 설명 : https://seungwoo0407.tistory.com/68 Transf
seungwoo0407.tistory.com
'논문' 카테고리의 다른 글
LSTM(Long Short-Term Memory) + GRU (1) | 2024.11.19 |
---|---|
RNN(Recurrent Neural Networks) (0) | 2024.11.18 |
(구현) Deep Residual Learning for Image Recognition (0) | 2024.09.12 |
(공부용) Deep Residual Learning for Image Recognition (4) | 2024.09.11 |
(구현) Rethinking the inception Architecture for computer vision (0) | 2024.09.10 |