Notice
Recent Posts
Recent Comments
Link
12-24 06:11
«   2024/12   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
Archives
Today
Total
관리 메뉴

AI 전문가가 되고싶은 사람

Transformer 리뷰를 위한 공부(완료) 본문

논문

Transformer 리뷰를 위한 공부(완료)

Kimseungwoo0407 2024. 11. 18. 16:37

신경망과 시퀀스 모델 학습

Transformer의 등장 배경인 RNN 계열 모델과 Attention 메커니즘 이해

필수 학습 주제

  • RNN (Recurrent Neural Networks): 순차 데이터 처리 기초

https://seungwoo0407.tistory.com/63

 

RNN(Recurrent Neural Networks)

RNN의 특징과 활용 사례RNN(순환 신경망)은 시계열 데이터와 순차적인 정보 처리에 특화된 모델이다.이를 통해 순차적인 데이터에서 시간적 의존성을 학습할 수 있다.예를 들어, 주식 가격 예측에

seungwoo0407.tistory.com

 

  • LSTM (Long Short-Term Memory) & GRU: 장기 의존성 문제 해결

https://seungwoo0407.tistory.com/64

 

LSTM(Long Short-Term Memory) + GRU

https://seungwoo0407.tistory.com/62 Transformer 리뷰를 위한 공부신경망과 시퀀스 모델 학습Transformer의 등장 배경인 RNN 계열 모델과 Attention 메커니즘을 이해합니다.필수 학습 주제RNN (Recurrent Neural Networks):

seungwoo0407.tistory.com

  • Word2Vec

https://seungwoo0407.tistory.com/65

 

Word2vec

https://seungwoo0407.tistory.com/62 Transformer 리뷰를 위한 공부신경망과 시퀀스 모델 학습Transformer의 등장 배경인 RNN 계열 모델과 Attention 메커니즘을 이해합니다.필수 학습 주제RNN (Recurrent Neural Networks):

seungwoo0407.tistory.com

 

  •  
  • Seq2Seq (Sequence-to-Sequence) 모델: 기계 번역, 챗봇 등 활용

https://seungwoo0407.tistory.com/66

 

Seq2seq

김장 도와드리고 오느라 공부를 쉬게 되었네요! 다시 시작해보겠습니다.Word2vec을 공부하였으니 Word2vec 부분이 이해가 가기에 공부해보겠습니다.https://www.youtube.com/watch?v=qwfLTwesx6k&list=LL&index=1&t=176

seungwoo0407.tistory.com

 

  • Attention Mechanism: Bahdanau Attention, Luong Attention

https://seungwoo0407.tistory.com/67

 

Seq2seq+Attention

https://www.youtube.com/watch?v=cu8ysaaNAh0 Attention 매커니즘Seq2Seq 모델은 인코더와 디코더로 구성되어 입력 시퀀스를 압축된 벡터로 변환한 후, 이를 바탕으로 출력 시퀀스를 생성하는 구조이다. 하지만

seungwoo0407.tistory.com


Transformer 핵심 개념 학습

https://seungwoo0407.tistory.com/68

 

Transformer

https://www.youtube.com/watch?v=p216tTVxues  Transformer란?2017년 구글 브레인 팀이 발표한 논문으로, 단순히 딥러닝 기술을 넘어 인공지능의 발전에 있어 중요한 이정표로 자리 잡았다. Transformer는 NLP는 물

seungwoo0407.tistory.com

Transformer 논문 리뷰

https://seungwoo0407.tistory.com/70

 

Attention Is All You Need

Transformer의 마지막 공부는 논문을 리뷰하는 것이라고 해서 논문 리뷰하며 공부해보겠습니다. 논문 링크 : https://arxiv.org/pdf/1706.03762작동 과정에 대한 상세 설명 : https://seungwoo0407.tistory.com/68 Transf

seungwoo0407.tistory.com