[Review] InfoVAE: Balancing Learning and Inference in Variational Autoencoders
작성중
Abstract
VAE(Variational AutoEncoder)는 잘못 상각(amortized)된 분포를 학습할 가능성이 있고
디코딩 분포가 너무 유연할 경우 잠재 변수를 무시하는 경향이 있다
라고 기존의 VAE의 한계점을 지적하며 해당 논문을 시작한다
1. Introduction
\[\log{p_\theta{x}}\geq-D_{KL}(q_\phi(z|x)\parallel{p(z)})+E_{q_\phi (z|x)}[\log{p_\theta{(x|z)}}]\]
VAE의 경우 Evident Lower BOund(ELBO)를 이용하여 Encoder, Decoder의 구조로 학습을 진행한다
하지만, 모델의 용량 제한으로 인해 데이터 분포에 피팅되는 경향이 있고
단일 조건부 분포만을 사용하기에 잠재 변수를 무시하고 VAE의 혼합 모델링의 이점을 취하지 못한다고 한다
위 문제를 해결하기 위해 추론과 데이터 분포 피팅간의 가중치를 줄 수 있는 목적 함수를 제안한다고 한다
2. Variational Autoencoders
VAE는 특징 차원 Z와 입력 데이터 차원 X의 결합 분포에 대해 모델링하는 것으로
Z는 가우시안과 같은 분포로 가정하고 데이터 차원 X를 복잡한 조건부 분포인 $p_{\theta}{(x|z)}$로 모델링하여 학습한다
여기서 트레이닝 데이터에 대한 분포를 $p_D(x)$라고 할 때의 ML(Maximum Likelihood)는
기존 VAE에 대해 데이터 분포에 대한 기대값만 추가된 형태로 다음과 같다
위 식과 $\theta$와 $\phi$에 대한 두 네트워크에서의 결합분포
\[p_\theta{(x,z)}≡p(z)p_\theta(x\|z)\qquad q_\phi(x,z)≡p_D(x)q_\phi(z\|x)\]그리고 기존의 VAE의 식을 이용하면 다음과 같은 ELBO식을 얻을 수 있다고 한다 (3, 4는 어떻게 나온걸까…?)
댓글남기기