본문 바로가기

​판다스 DT 용어 - Log loss

 

잘 몰라도 그냥 배운 거 끄적여 놓자...다 잊자뿌는 것 보단 낫겄지...

예측된 데이터나 분석 결과를 판단하는 기준이 되는 요소나 모델은 많이 있겠지..

그중에 log loss 라는 것으로 판단하는 것들은...

예측된 결과가 실제 결과와 아예 틀리면 손실이 엄청 커져서 예측 모델이 성능이 안좋은 것으로 수치가 나옵니다.

(숫자가 낮을 수록 잘 맞춘다는 의미입니다)

고로 암 진단, 범죄 진단 처럼 고위험군이 아예 예측이 틀려서 완전히 배제되면 큰 사건이 나는 응용의 경우 판단 근거로 사용되는 지표라고 하네요...아예 틀리면 수치가 확 올라갑니다. 아래 그래프로 왜 그런지 유추해보세요. ^^

 

아래는 어디선가 발췌한 내용...

Truth Value에서 예측된 확률이 0에 가까워질수록 손실이 기하급수적으로 증가합니다.

Figure 9: Log Loss for different probabilities

[출처] [분류기/손실함수]Binary Cross-Entropy / Log loss|작성자 인텔리즈
[출처] https://scikit-learn.org/stable/modules/model_evaluation.html#log-loss

3.3. Metrics and scoring: quantifying the quality of predictions — scikit-learn 0.23.1 documentation
3.3. Metrics and scoring: quantifying the quality of predictions There are 3 different APIs for evaluating the quality of a model’s predictions: Estimator score method : Estimators have a score method providing a default evaluation criterion for the problem they are designed to solve. This is not di...
scikit-learn.org

여기저기 헤매다 보면 언젠가...from https://stocksnap.io/photo/girl-hiking-Z5ZVY4FM28

 

^~^ 오늘을살자.

B로그0간

개발 관련 글과 유용한 정보를 공유하는 공간입니다.