반응형 snippet1 KL Divergence VAEs 같은 심층 생성 모델을 다뤄본 경험이 있다면, KL divergence에 대해 이미 알고 있을 것입니다. 간단히 말해서, 두 확률 분포 사이의 KL divergence는 두 분포가 얼마나 다른지를 측정합니다. KL Divergence란? KL divergence(Kullback-Leibler divergence)는 한 확률 분포가 다른 확률 분포와 얼마나 다른지를 측정하는 지표입니다. 전통적으로, 베이지안 이론에서는 어떤 참 분포 P(X)를 근사 분포 Q(X)로 추정하고자 합니다. 이 컨텍스트에서 KL divergence는 근사 분포 Q가 참 분포 P로부터 얼마나 떨어져 있는지를 측정합니다. KL Divergence(Kullback-Leibler Divergence)를 이해하는 데 필요한 주요 .. 2024. 3. 28. 이전 1 다음 반응형