Notice
Recent Posts
Recent Comments
Link
250x250
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- GPT
- Data Viz
- word2vec
- 기아
- Self-attention
- RNN
- 딥러닝
- Optimization
- AI Math
- Transformer
- N21
- 데이터 구축
- KLUE
- nlp
- Ai
- AI 경진대회
- 현대자동차
- dataset
- passage retrieval
- 2023 현대차·기아 CTO AI 경진대회
- N2N
- seaborn
- Bert
- pyTorch
- 데이터 시각화
- mrc
- Attention
- matplotlib
- ODQA
- Bart
Archives
- Today
- Total
목록QKV (1)
쉬엄쉬엄블로그
이 색깔은 주석이라 무시하셔도 됩니다. Sequential Model What makes sequential modeling a hard problem to handle? 중간에 어떤 단어가 빠지거나 순서가 뒤바뀌는 단어가 있으면 모델링하기 어렵게 됨 Transformer Transformer is the first sequence transduction model based entirely on attention. Transformer는 전적으로 attention에 기초한 최초의 시퀀스 변환 모델이다. From a bird’s-eye view, this is what the Transformer does for machine translation tasks. 대략적인 관점에서, 아래 그림은 Transf..
부스트캠프 AI Tech 4기
2023. 6. 2. 13:23