Background
DDPM
- 적대적 학습 없이 고해상도 이미지 합성 가능
- 샘플을 생성하는데 많은 단계의 Markov Chain 사용
- 생성 과정은 markov diffusion 과정의 reverse
Summary
DDPM(Denoising Diffusion Probabilistic Models)는 적대적 학습 없이 고해상도 이미지 합성 가능했지만, 샘플을 생성하는데 많은 단계의 Markov Chain 사용
⇒ 샘플링 속도 높이기 위해 DDIM(Denoising Diffusion Implicit Models) 제안: DDPM과 동일한 학습 과정이지만 더 효과적인 반복적인 Implicit probabilistic model
Approach
MOTIVATION
- DDPM, DDIM 한계: 고해상도 이미지 생성하기 위해 많은 반복이 필요⇒ DDPM에서 diffusion process에 해당하는 markov chain을 non-markov diffusion 과정으로 일반화한 DDIM 제안
- → DDPM에서 생성 과정은 diffusion 과정의 역과정이기 때문에 샘플 생성에 많은 스텝이 있음. GAN보다 샘플 생성 속도가 느림
DDIM
- 생성 과정과 대응
- 샘플을 고해상도로 더 빠르게 생성 가능
- 학습은 DDPM과 동일
- 동일한 objective function 사용
- 장점: non-markov chain은 기존 markov chain을 단축 가능(스텝 수 감소) → 샘플 품질에서 비용 측면에서 효율성 증가
Main Results
- DDPM보다 10배에서 50배까지 더 높은 해상도의 샘플 생성 가능
Discussion
(이 논문에서 부족하거나, 의논이 필요하거나, 따로 메모가 필요한 내용은?)
RELATED WORK
- DDPM(Denoising Diffusion Probabilistic Models), NCSN(Noise Conditional Score Networks) → 적대적 학습 없이 GAN과 비교할만한 품질의 샘플 생성→ Markov chain(점진적으로 노이즈 제거하여 이미지로 변환)으로 샘플 생성, (diffusion process는 점진적으로 이미지를 노이즈로 변환)
- → 이를 위해 여러 레벨의 가우시안 노이즈로 손상된 샘플의 노이즈를 제거하기 위한 denoising autoencoding model 학습
CONTRIBUTION
- DDPM보다 샘플 생성 품질이 좋음 - 제안하는 기술로 샘플링 속도를 10배부터 100배까지 높임
- DDIM에서 생성하는 샘플은 DDPM에는 없었던 일관성있는 속성이 있음
- latent space에서 의미있는 보간 수행 가능
- 가우시안을 사용한 기존 diffusion 과정보다 non-markovchain 과정이 더 연속성 있는 forward process임 → 기존 diffusion process는 가우시안만이 유일하게 유한 분산을 갖는 안정적인 분포이기 때문)
- DDIM의 샘플링 과정이 neural ODE과 비슷하기 때문에 Adams-Bashforth과 같은 방법을 함께 사용하면 ODE에서의 불연속성 오류를 감소하는데 활용 가능