Notice
Recent Posts
Recent Comments
Link
250x250
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- passage retrieval
- mrc
- dataset
- nlp
- Bart
- 데이터 시각화
- Optimization
- pyTorch
- Ai
- Self-attention
- word2vec
- 데이터 구축
- GPT
- ODQA
- Attention
- matplotlib
- 기아
- Bert
- AI 경진대회
- Data Viz
- KLUE
- AI Math
- Transformer
- RNN
- N21
- 딥러닝
- N2N
- 현대자동차
- 2023 현대차·기아 CTO AI 경진대회
- seaborn
Archives
- Today
- Total
목록Encoder-Decoder (1)
쉬엄쉬엄블로그
이 색깔은 주석이라 무시하셔도 됩니다. N2M (Encoder-Decoder Approach) 이론 N2M과 Encoder/Decoder N2M 태스크와 Encoder-Decoder 모델의 역할 N2M N2M 태스크 N개의 데이터를 입력으로 받아 M개의 데이터를 출력하는 태스크 Encdoer + Decoder 모델이 주로 활용됨 Encoder 입력 정보를 잘 인코딩(숫자화)하기 위해 활용함 긴 Sequence 정보를 잘 추출하는게 중요함 Decoder 인코더에서 인코딩된 정보를 활용하여 출력 Sequence를 순차적으로 생성함 인코딩된 정보와 앞서 생성된 토큰을 함께 활용하여 다음 토큰을 생성함 N2M 태스크 예 | 번역 문장을 입력받아 다른 언어로 번역하는 문제 N2M 태스크 예 | 품사태깅 입력된 문..
부스트캠프 AI Tech 4기
2023. 7. 27. 16:46