[ML] Huber Loss(후버 손실)
앞서 살펴봤던 MSE와 MAE의 장점을 결합한 Huber Loss에 대해 살펴보겠다. MSE는 outlier에 제곱을 통해 많은 비중을 주게 되는 반면, MAE는 같은 비중을 두게 된다. 또한 MSE의 경우 outlier가 아닌 데이터에선 훌륭한 모델을 만들 수 있기에 이 둘을 절충해 아래와 같이 나타낸다. 에러(예측값과 실제값의 차)가 Delta(델타) 사이일 경우 MSE를 적용하고 그 외에 범위에 있을 경우 MAE를 적용하는 것이다. 참고로 1/2을 곱한 것은 아래 두 함수의 접점(Junction)에서 같은 결과값과 같은 편미분 값을 같기 위한 것이다. import matplotlib.pyplot as plt import numpy as np # Huber loss function def huber_..
기술(Tech, IT)/머신 러닝(Machine Learning)
2023. 2. 28. 07:31
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 이코노미스트 에스프레소
- 리트코드
- I2C
- 투 포인터
- C++
- Hash Map
- ml
- min heap
- 딕셔너리
- 머신 러닝
- vertex shader
- 파이썬
- Python
- machine learning
- tf-idf
- 소켓 프로그래밍
- socket programming
- 티스토리챌린지
- join
- java
- 오블완
- 이코노미스트
- The Economist Espresso
- defaultdict
- The Economist
- leetcode
- Computer Graphics
- DICTIONARY
- Android
- 안드로이드
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함
반응형