[ML] Huber Loss(후버 손실)
앞서 살펴봤던 MSE와 MAE의 장점을 결합한 Huber Loss에 대해 살펴보겠다. MSE는 outlier에 제곱을 통해 많은 비중을 주게 되는 반면, MAE는 같은 비중을 두게 된다. 또한 MSE의 경우 outlier가 아닌 데이터에선 훌륭한 모델을 만들 수 있기에 이 둘을 절충해 아래와 같이 나타낸다. 에러(예측값과 실제값의 차)가 Delta(델타) 사이일 경우 MSE를 적용하고 그 외에 범위에 있을 경우 MAE를 적용하는 것이다. 참고로 1/2을 곱한 것은 아래 두 함수의 접점(Junction)에서 같은 결과값과 같은 편미분 값을 같기 위한 것이다. import matplotlib.pyplot as plt import numpy as np # Huber loss function def huber_..
기술(Tech, IT)/머신 러닝(Machine Learning)
2023. 2. 28. 07:31
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 오블완
- min heap
- vertex shader
- 리트코드
- I2C
- 이코노미스트
- 투 포인터
- DICTIONARY
- The Economist
- tf-idf
- Hash Map
- Android
- 파이썬
- Python
- 안드로이드
- Computer Graphics
- The Economist Espresso
- join
- java
- 이코노미스트 에스프레소
- C++
- 소켓 프로그래밍
- machine learning
- 티스토리챌린지
- 딕셔너리
- socket programming
- leetcode
- ml
- defaultdict
- 머신 러닝
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함
반응형