Cross-Entropy에 관한 의문점

2020. 4. 12. 23:04통계 빠개기/Statistics

1) Entropy (2진수)

2) About KL-Divergence

3) Cross-Entropy 공식유도

    - Why?) Gradient Descent가 0으로 수렴해버릴 경우 학습이 거의 이루어지지 않기때문

        - But, Batch Normalization써서 Sigmoid 미분 값이 0에 수렴하지 않는다면 rmse써도 상관없는 것 아닌가? --> rmse로 했을떈 다중분류에서 문제가 될 수있음

        - 추가로, Sigmoid로 Activation 하지 않는다면 마찬가지로 Cross-Entropy로 안하고, 그냥 Softmax하고 rmse로 cost 구해도 되는거 아닌가?

        - 이 모든 전제가 Gradient Descent때문에 하는걸까? 추가로 이유가 또 있을까?

 

- 결과 Label 값이 어느정도 선형적인 관계가 있을경우.. (신용등급 0~9등급 분류)

가까운 거에대한 오차가 먼것보다 더 적게 주는게 유의미할 경우도 있을텐데.. 그때는 어케할까

 

 

https://sevity.tistory.com/41

 

크로스엔트로피 손실함수

여기, 여기 좋다. 이 자료가 좋다고 하는데 아직 안 읽어 봄 information(정보량) 사건에 대한 확률이 드물수록 정보량은 크다 $1 \over p(x)$ 두 사건이 동시에 발생할 확률은 곱해준다. ${1 \over p(x)} \times..

sevity.tistory.com

 

 

 

'통계 빠개기 > Statistics' 카테고리의 다른 글

[Proof] Normal Equation  (0) 2020.04.17
[Overview] OLS, Normal Equation, Gradient Descent  (0) 2020.04.17
[Overview] Co-variance Corr (Formula)  (0) 2020.04.17
P-NP문제와 NP-Hard  (0) 2020.04.14
soft argmax에 관한 의문점  (0) 2020.04.12