Notice
Recent Posts
Recent Comments
Link
250x250
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 현대자동차
- N2N
- 데이터 구축
- Data Viz
- Bart
- Self-attention
- Attention
- Optimization
- matplotlib
- Transformer
- KLUE
- ODQA
- passage retrieval
- 데이터 시각화
- 2023 현대차·기아 CTO AI 경진대회
- AI 경진대회
- RNN
- GPT
- pyTorch
- AI Math
- N21
- seaborn
- Bert
- 딥러닝
- 기아
- Ai
- nlp
- dataset
- word2vec
- mrc
Archives
- Today
- Total
목록T5 (1)
쉬엄쉬엄블로그
이 색깔은 주석이라 무시하셔도 됩니다. Closed-book QA with T5 Closed-book Question Answering Current approaches of builiding QA system Idea of Closed-book Question Answering 모델이 이미 사전학습으로 대량의 지식을 학습했다면, 사전학습 언어모델 자체가 이미 하나의 knowledge storage라고 볼 수 있지 않을까? ⇒ 굳이 다른 곳에서 지식을 가져와야할 필요가 없지 않을까? 모델 안에 모든 정보가 포함되어 있어야 함 대량의 지식을 사전학습한 언어 모델이 하나의 knowledge storage인 것 Zero-shot QA performance of GPT-2 사전학습 시 전혀 본적 없는 Natur..
부스트캠프 AI Tech 4기
2023. 9. 16. 16:24