Notice
Recent Posts
Recent Comments
Link
250x250
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 현대자동차
- seaborn
- Ai
- dataset
- mrc
- Self-attention
- Optimization
- Transformer
- KLUE
- GPT
- RNN
- N21
- AI Math
- 데이터 시각화
- 딥러닝
- AI 경진대회
- Bart
- 데이터 구축
- 기아
- 2023 현대차·기아 CTO AI 경진대회
- Attention
- ODQA
- pyTorch
- Bert
- word2vec
- matplotlib
- Data Viz
- N2N
- passage retrieval
- nlp
Archives
- Today
- Total
목록WordPiece (1)
쉬엄쉬엄블로그
이 색깔은 주석이라 무시하셔도 됩니다. 한국어 언어 모델 학습 및 다중 과제 튜닝 BERT 언어모델 BERT 모델 소개 트랜스포머 모델은 인코더와 디코더가 하나로 합쳐져있는 구성을 가짐 BERT는 self attention 즉, 트랜스포머를 사용한 모델 입력된 정보를 다시 입력된 정보로 표현하기 위해 학습됨 그런데 그냥 원본을 복원하는 것이 아니라 masked된 단어를 맞추도록 학습함 더 어렵게 만든 문제를 해결하도록 만들어서 언어를 학습하도록 만듬 * GPT-2는 원본 이미지를 특정한 sequence를 가지고 잘라낸 후 그 다음을 예측하도록 학습함* 모델 구조도 학습 코퍼스 데이터 BooksCorpus (800M words) English Wikipedia (2,500M words without lis..
부스트캠프 AI Tech 4기
2023. 8. 15. 12:05