Notice
Recent Posts
Recent Comments
Link
250x250
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Transformer
- Data Viz
- Ai
- Bart
- 데이터 구축
- pyTorch
- 딥러닝
- nlp
- AI 경진대회
- dataset
- 현대자동차
- word2vec
- Bert
- ODQA
- matplotlib
- N21
- Attention
- seaborn
- 기아
- passage retrieval
- 2023 현대차·기아 CTO AI 경진대회
- AI Math
- N2N
- Optimization
- mrc
- RNN
- GPT
- KLUE
- Self-attention
- 데이터 시각화
Archives
- Today
- Total
목록Ray (1)
쉬엄쉬엄블로그
이 색깔은 주석이라 무시하셔도 됩니다. 성능 향상 방법들 모델 구조 변경 데이터 증강 하이퍼파라미터 튜닝 보통 하이퍼파라미터 튜닝이 마지막으로 시도하는 방법 데이터 증강이 성능 향상에 가장 도움된다고 함 Hyperparameter Tuning 모델 스스로 학습하지 않는 값은 사람이 지정 leanring rate 모델의 크기 optimizer 등등 하이퍼 파라미터에 의해서 성능이 크게 좌우될 때도 있기 때문에 마지막 0.01을 쥐어짜야 할 때 도전해볼만 함 가장 기본적인 방법들 grid random 최근에는 베이지안 기반 기법들이 주도 BOHB (2018) Ray mutli-node mutli processing 지원 모듈 ML/DL의 병렬 처리를 위해 개발된 모듈 기본적으로 현재의 분산병렬 ML/DL 모..
부스트캠프 AI Tech 4기
2023. 5. 23. 13:04