Notice
Recent Posts
Recent Comments
Link
250x250
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- matplotlib
- Optimization
- Attention
- 기아
- dataset
- Bert
- N2N
- 2023 현대차·기아 CTO AI 경진대회
- passage retrieval
- KLUE
- N21
- ODQA
- Ai
- seaborn
- nlp
- Self-attention
- AI Math
- 데이터 구축
- Transformer
- GPT
- 딥러닝
- Bart
- RNN
- AI 경진대회
- mrc
- word2vec
- 데이터 시각화
- 현대자동차
- pyTorch
- Data Viz
Archives
- Today
- Total
쉬엄쉬엄블로그
F Beta-Score? 본문
728x90
딥러닝 모델의 평가지표 중 하나로 F1-Score를 많이 사용하는데 얼마 전 지원한 기업의 역량평가에서 F2-Score라는 표현을 처음 접하게 되었다.
평소에 평가지표로 F1-Score를 Precision과 Recall 값의 조화평균이라고만 어렴풋이 알고 있었는데 F2-Score가 무엇인지는 전혀 알지 못했다.
F2-Score가 무엇인지 찾아보니 F Beta-Score를 알게 되었고 여기에서 F1-Score가 파생된 것 같았다.
F Beta-Score의 수식은 다음과 같다.
$(1 + \beta^2) \frac{Precision*Recall}{(\beta^2*Precision) + Recall}$
위 수식에서 $\beta$ 값이 1이라면 F1-Score를 의미하고 수식이 익히 알고있는 F1-Score처럼 Precision과 Recall의 조화평균이 된다.
즉, 역량평가에서 본 F2-Score는 $(1 + 2^2) \frac{Precision*Recall}{(2^2*Precision) + Recall}$ 이라는 수식이 되었을 것이다.
역량평가를 응시했을 때 F Beta-Score와 이러한 F1-Score의 배경을 알고 있었다면 F2-Score라는 표현에 당황하지 않고 풀 수 있었을 것 같다...
'AI' 카테고리의 다른 글
| 모델 경량화 2강 실습 - 작은 모델, 좋은 파라미터 찾기 (0) | 2023.05.25 |
|---|---|
| ChatGPT : 새로운 자연어 처리기술의 발전과 가능성 (0) | 2023.05.22 |
| ChatGPT Prompt Engineering for Developers (0) | 2023.05.08 |
| 모델 경량화 2강 이론 - 작은 모델, 좋은 파라미터 찾기 (1) | 2023.05.02 |
| 모델 경량화 1강 (0) | 2023.05.01 |
Comments