Notice
Recent Posts
Recent Comments
Link
250x250
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- dataset
- KLUE
- RNN
- Self-attention
- 데이터 시각화
- N2N
- Attention
- pyTorch
- AI 경진대회
- matplotlib
- word2vec
- 2023 현대차·기아 CTO AI 경진대회
- seaborn
- 딥러닝
- Data Viz
- mrc
- Ai
- passage retrieval
- Bart
- 현대자동차
- 데이터 구축
- AI Math
- Bert
- Transformer
- Optimization
- GPT
- 기아
- ODQA
- nlp
- N21
Archives
- Today
- Total
목록self-supervised (1)
쉬엄쉬엄블로그
이 색깔은 주석이라 무시하셔도 됩니다. Self-Supervised Pre-Training Models Transformer Recent Trends Transformer model and its self-attention block has become a general-purpose sequence(or set) encoder and decoder in recent NLP applications as well as in other areas. 트랜스포머 모델에서 제안된 self-attention block은 범용적인 sequence encoder, decoder로써 최근 자연어처리의 다양한 분야에서 좋은 성능을 내고 있고 심지어 다른 분야에서도 활발히 사용됨 Training deeply stacked ..
부스트캠프 AI Tech 4기
2023. 7. 11. 12:38