Seq2Seq: 순차적인 데이터를 입력받아 순차적인 데이터를 출력하는 모델
- encoder : 입력 시퀀스의 문맥을 활용해 context vector 생성
- decoder :
Seq2Seq: 두 개의 순환 신경망 구조로 이루어진 모델
- encoder : LSTM모델
- decoder : 0번째 hidden state[?]로 간주하여, 첫 번쩨 decode LSTM의 입력이 됨
Seq2Seq: Bahdanau attention
- 문장에는 더 중요하고, 덜 중요한 단어가 존재 → Seq2Seq는 모든 단어를 다 반영하기에 문제가 발생
FFNN + softmax → [?]