Sequence-to-Sequence (Seq2Seq)는 문장을 입력으로 받고 문장을 출력하는 구조를 가지고 있다. 이는 한국어를 영어로 번역하는 것과 같은 기계번역 문제에 주로 사용된다. 또한, 문서를 입력으로 받고 요약하는 형태로도 사용된다. [논문]
Seq2Seq에 가장 많이 쓰이는 모델 구조는 RNN이다. 문장의 임베딩 값을 입력으로 사용하여 Encoder를 구성한다. Encoder는 하나의 Context라는 정보를 출력하고 이는 Decoder의 초기값으로 사용된다. Context Vector는 입력으로 들어간 문장의 요약 정보라 할 수 있다.

입력의 시작은
입력 문장
이렇게 출력된
예측 값은 집합
이에 관련된 코드는 여기를 참고하면 된다.
'Deep Learning > Natural Language Processing' 카테고리의 다른 글
[NLP] Pointwise Mutual Information (PMI) (0) | 2023.04.03 |
---|---|
[NLP] BERT의 종류 (2) | 2022.08.15 |
[NLP] Stemming and Lemmatization (0) | 2022.01.18 |
[NLP] Tokenization (0) | 2022.01.18 |
[NLP] Transformer (0) | 2021.10.21 |