딥러닝이나 머신러닝에 관한 논문에서 Log가 자주 등장한다. Log를 쓰면 x의 값이 낮을 때는 y값이 민감하게(값의 폭이 크게) 반응하고, x의 값이 클 때는 상대적으로 y값이 미미하게(값의 폭이 작게) 반응한다. Log loss 종종 Log loss가 성능 평가 지표로도 사용되기에 Log loss도 알아야 할 필요가 있다. loss라는 단어가 있는 것으로 봐서 0에 가까울수록 최적화된 값으로 판단할 수 있다. -log x(밑은 e)의 그래프를 생각해보면 위 그래프의 x축 기준으로 반대가 될 것이다. x의 값은 확률을 가지며 범위도 당연히 0(0%)에서 1(100%) 사이의 값을 가진다. 그렇다면 100%의 확률에 가까워질수록 loss의 값이 작아진다고 판단할 수 있다. 어떤 문제가 있다고 생각해보자...
Log란?
딥러닝이나 머신러닝에 관한 논문에서 Log가 자주 등장한다. Log를 쓰면 x의 값이 낮을 때는 y값이 민감하게(값의 폭이 크게) 반응하고, x의 값이 클 때는 상대적으로 y값이 미미하게(값의 폭이 작게) 반응한다. Log loss 종종 Log loss가 성능 평가 지표로도 사용되기에 Log loss도 알아야 할 필요가 있다. loss라는 단어가 있는 것으로 봐서 0에 가까울수록 최적화된 값으로 판단할 수 있다. -log x(밑은 e)의 그래프를 생각해보면 위 그래프의 x축 기준으로 반대가 될 것이다. x의 값은 확률을 가지며 범위도 당연히 0(0%)에서 1(100%) 사이의 값을 가진다. 그렇다면 100%의 확률에 가까워질수록 loss의 값이 작아진다고 판단할 수 있다. 어떤 문제가 있다고 생각해보자...
2021.04.21