ML

200703

stri.destride 2020. 7. 6. 21:55

PriorGAN: Real Data Prior for Generative Adversarial Nets

contibution and method 

1) low-quality problem: D의 그라디언트 방향이 정확하지 않아서 트레이닝이 제대로 안 될 때가 있다 -> priorGAN을 통해 확률을 추정함으로써 확률이 높아야 고퀄리티 이미지 생성한것으로 간주 가능, quality loss 도입
2) missing mode problem: 데이터 분포를 추정할 때 실제 데이터 분포에서 몇 부분이 빠지는 것-> GMM을 도입, resampling stratage 도입

 

motivation

Lipschitz criterion이 문제1)의 해결책인 논문들도 있었지만 impractical함...

 

method

1) build prior: data의 prior가 아니고 deep feature의 prior를 잡음 

2) improving quality with prior: quality loss를 설명 (특정 threshold이하일때에만 log-likelihood update하는것)

3) improving density with prior: re-sampling을 설명하는데, 각 Gaussian component에 해당하는 샘플의 수를 이용한 frequency값을 생성해서..real과 generated에 대해서 distance를 얻어 이 값으로 sampling frequency를 바꿔가는 것 

근데 여기서 가우시안 컴포넌트를 어떻게 구성하는지, 업데이트 하는지, 구조는 어떻게 되는지에 대해서 설명이 잘 되어있지 않다 저자들은 supplementary material을 보라고 하는데 서플리먼터리가 없음;; 개인적으로 GAN 자체가 prob. distribution을 실제 data distribution 으로 모델링하기 때문에 deterministic distribution을 사용하지 않는게 장점인걸로 알고있는데, 이렇게 distribution으로 모델링하면 VAE approach이기때문에..다르지않나? 그런 생각이 있었음 

 

experiments

실험 1, 2) 여러 GAN에 적용해보기: TABLE 1, 2걍 뭐 다 좋음

실험3) 다양한 Dataset에 대한 prior: TABLE 3 and Fig 4, 제안한게 다 좋고 Inception V3모델이 성능 더 좋음

실험 4) quality loss, resampling에 대한 ablation study: TABLE4, Lq가 추가되면 QS가 올라감, RS는 DDS를 낮춤

DB: FFHQ, LSUN 사용

 

 

'ML' 카테고리의 다른 글

200714  (0) 2020.07.14
200711  (0) 2020.07.13
200705  (0) 2020.07.06
200701  (0) 2020.07.01
200701  (0) 2020.07.01