Notice
Recent Posts
Recent Comments
Link
250x250
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 기아
- seaborn
- Optimization
- KLUE
- 데이터 구축
- nlp
- 2023 현대차·기아 CTO AI 경진대회
- mrc
- Ai
- Self-attention
- Bart
- matplotlib
- Transformer
- Data Viz
- word2vec
- AI Math
- pyTorch
- 현대자동차
- passage retrieval
- GPT
- RNN
- 데이터 시각화
- Attention
- 딥러닝
- dataset
- N2N
- ODQA
- N21
- Bert
- AI 경진대회
Archives
- Today
- Total
쉬엄쉬엄블로그
(딥러닝) Historical Review 본문
728x90
이 색깔은 주석이라 무시하셔도 됩니다.
Introduction

What make you a good deep leaner?
Implementation Skills
- TensorFlow
- PyTorch
Math Skills
- Linear Algebra
- Probability
Knowing a lot of recent Papers
Key Components of Deep Learning
- The data that the model can learn from
- The model how to transform the data
- The loss function that quantifies the badness of the model
- The algorithm to adjust the parameters to minimize the loss
- 이 4가지를 주의깊게 보면 연구를 조금 더 잘 이해하게 될 것
Data
Data depend on the type of the problem to solve

Model

- 모델의 성질에 따라서 좋은 결과나 안 좋은 결과가 나올 수 있음
Loss
The loss function is a proxy of what we want to achieve.

- loss function은 이루고자 하는 근사치
- 우리가 원하는 바를 항상 이룬다는 보장은 없음


Historical Review
2012 - AlexNet

2013 - DQN

- 벽돌깨기 게임에 강화학습 적용
2014 - Encoder / Decoder

2014 - Adam Optimizer

2015 - Generative Adversarial Network

2015 - Residual Networks

2017 - Transformer

2018 - BERT (fine-tuned NLP models)

2019 - BIG Language Models

2020 - Self Supervised Learning

출처: 부스트캠프 AI Tech 4기(NAVER Connect Foundation)
'부스트캠프 AI Tech 4기' 카테고리의 다른 글
| (딥러닝) Optimization (0) | 2023.05.29 |
|---|---|
| (딥러닝) Neural Networks & Multi Layer Perceptron (0) | 2023.05.27 |
| Transfer Learning + Hyper Parameter Tuning (0) | 2023.05.26 |
| Custom Dataset 및 Custom DataLoader 생성 (0) | 2023.05.25 |
| PyTorch Troubleshooting (0) | 2023.05.24 |
Comments