Mathematics
Kullback-Leibler (KL) divergence
DS-Lee
2020. 11. 3. 13:01
The equation of the KL divergence is expressed as follows:
$KL(p||q) = H(p,q) - H(p)$
$H(p,q) = H(p) + \sum{p_i log{\frac{p_i}{q_i}}}$
$KL(p||q) = H(p) + \sum{p_i log{\frac{p_i}{q_i}}} - H(p) = \sum{p_i log{\frac{p_i}{q_i}}} = \mathbb{E}_{p_i}{log\frac{p_i}{q_i}} $
where $H(p,q)$ denotes cross entropy
and $H(p)$ denotes entropy
.
마지막 KL(.)을 보면 엔트로피가 전부 상쇄되어 사라지고, summation항만 남게되는데, 이 summation항이 "분포 p와 분포 q의 정보량 차이" 이다. 결과적으로는, KL(.)는 두 확률적 분포의 차이를 나타낸다.
Reference:
현 포스팅은 https://hyunw.kim/blog/2017/10/27/KL_divergence.html 에 있는 내용이며, 자세한 사항 또한 잘 서술되어져 있습니다.