Improving Style-Content Disentanglement in Image-to-Image Translation
goal: image-to-image translation에서 style disentangle을 잘 하자
related works: domain , content, style로 이미지를 정의할 때 style과 content를 잘 분리하는 방법을 찾기. 여기서 domain은 해당 이미지의 class (개, 고양이..) content는 domain invariant한 feature들 (동물의 포즈 등), style은 그 외의 것들. cycleGAN과 MUNIT이 conventional이라고 볼 수 있음 class-supervised disentanglement
motivation: 기존의 adv. loss only로는 1) training unstability 2) domain과 content를 분리하는건 잘 하는데 content와 style을 분리하진 못함
method: loss = adv + rec(cyclic consistency loss) + content bottleneck
content bottleneck loss는 content encoder output과 zero-mean unit variance의 KLD. 여기서 variance는 꾸준히 random으로 유지해서 posterior collapse방지
architecture: STARGAN-V2와 거의 다 동일
** 찾아봐야할것
adaIN
starGAN에 cb loss를 붙인거랑 content encoder가 있는게 차이점인거같은데 좀더 정확하게 차이점이 뭔지 확인해야함