논문&부가지식
-
가중치 초기화논문&부가지식 2021. 6. 21. 12:18
https://reniew.github.io/13/ 참고 1. LeCun Initialization LeCun은 지난번 소개한 LeNet의 창시자이며, CNN을 세상에 도입한 사람이라 할 수 있다. 1998년 LeCun은 효과적인 역전파를 위한 논문에서 초기화 방법에 대해서 소개했는데 정규분포를 따르는 방법과 균등분포를 따르는 두가지 방법에 대해서 소개하였다.(LeCun 98, Efficient Backprop) 2. Xavier Initialization Xavier Initialization 혹은 Glorot Initialization라고도 불리는 초기화 방법은 이전 노드와 다음 노드의 개수에 의존하는 방법이다. Uniform 분포를 따르는 방법과 Normal분포를 따르는 두가지 방법이 사용된다.(G..
-
BEGAN : Boundary Equilibrium Generative Adversarial Networks논문&부가지식 2021. 5. 22. 21:11
교수님 추천으로 읽은 논문. WGAN의 상위 호환으로 보인다. Abstract & Introduction 이 논문 또한 GAN의 수렴성과 불안정성을 개선시키기 위한 논문이다. 하지만 이전 WGAN이나 WGAN-GP, SoftmaxGAN과 달리 수렴성에 대한 지표를 제공할 수 있는 방법론을 활용하였다. Proposed Method 가장 중요한 것은 D를 오토인코더를 썼다는 점. 따라서 대표적인 로스 함수가 아래와 같이 된다. $$L(v) = |v - D(v)|^n$$, where $D : \mathbb{R}^{N_x}$ is the autoencoder function, $\eta \in {1,2}$ is the target norm, $v \in \mathbb{R}^{N_x}$ is a sample of..
-
GAN 모델링 할 때 고려해봐야 할 것들.논문&부가지식 2021. 5. 12. 15:47
먼저 GAN을 훈련 할 때의 주요 문제점을 보자. Converge : 수렴을 안하여 이상한 이미지를 만들어 낸다. 또는 불안정하여 성능이 올라가지 않는다. Mode Collapse : G가 계속 하나의 이미지만 만드는 것. Slow training : gradient가 죽는다. 보통 generator 에서 일어남. 왜냐하면 generator가 더 늦게 update되므로. 1. Feature Matching \=> gene img와 기본 img의 feature에 L2-norm을 취한다. 즉, 1, 0과 같이 이진 클래스로 안하고 KD처럼 아웃풋을 맞추는 것. $$||E\_{x \\sim p\_{data}} f(x) - E\_{z \\sim p\_z (z)} f(G(z))||\_2^2$$ feature ma..
-
[CVPR2019] Semantic Image Synthesis with Spatially-Adaptive Normalization논문&부가지식 2021. 5. 9. 15:08
2021-05월 랩세미나 발표때 한 논문. Oral paper이고 배울점이 많다. 개인적으로 다른 논문들과 흐름이 다른 것 같다. 보통은 Method부문에 명시적으로 자기들의 novelty를 적어두는데 이건 뭔가 일부를 빼놓은 느낌 Abstract & Introduction GAN의 application과 기존의 segmentation을 realistic 이미지로 만드는 모델들은 발전이 되어야 한다는 비판과 함께 Pix2PixHD와 같이 semantic mask가 입력으로 들어가는 모델들은 하늘과 같은 입력 마스크가 one class 일 때 굉장히 안좋은 성능을 보인다. (실제로 하늘 mask가 들어가면 그냥 회색의 이미지가 나옴.)즉, 모델의 variance가 낮다는 것을 보여줌으로써 이를 해결하는 새..
-
[NIPS2017] SoftmaxGAN논문&부가지식 2021. 5. 5. 17:19
이 논문은 수식적으로도 어려운 것이 있지만 구현에서 상당히 애를 먹었다. 다른 논문과 달리 Generator를 훈련시키기 위해 real logit을 사용한다. 따라서 그래프를 이전과 달리 D를 두번 써서 그래프를 새롭게 만들었어야 했다. 또한 깃헙에 버전이 달라서 그런지 잘못 구현이 되어있어서 애를 먹은것 같다. 덕분에 backward 원리를 많이 공부한듯... Abstract & Introduction 이 논문도 WGAN과 마찬가지로 GAN학습의 안정성을 추구한다. **Softmax distribution이 target distribution과 같아지지 않으면 gradient가 0이 아니라는 것을 이용한다. ** Related Works WGAN을 상당히 많이 인용하면서 자신들도 non-vanishin..
-
[NIPS2017]WGAN-GP논문&부가지식 2021. 4. 28. 10:38
Abstract WGAN은 stable한 결과를 내지만, converge가 안될 가능성이 있다. WGAN은 weight clipping으로 Lipschitz constraint를 맞추었지만 여기서는 gradient panelty (gp) 라는 다른 방법을 제시한다. Introduction & Background GAN의 고질적인 문제점인 수렴이 굉장히 어렵고 학습이 불안정한 상태를 해결하기 위해서 제시한다. WGAN이 주장하는 것 : GAN이 minimize하는 divergence는 연속적이지 않다. 결과적으로 훈련을 방해하는 것이라 할 수 있다. 따라서 WGAN은 EM distance를 metric으로 연속적인 손실함수를 제시하였고, 어디에서나 미분 가능하여 안정적인 훈련이 된다는 것을 보였다. 또한 ..
-
Wasserstein GAN논문&부가지식 2021. 4. 26. 23:29
구현은 상당히 쉽지만, GAN을 구현하기 위해 알아야 하는 배경지식과 STARGAN을 구현하면서 느낀 GAN의 수렴이 굉장히 불안정한 문제를 풀기 위해 가장 먼저 적합한 솔루션을 제시하고 수학적으로 증명한 논문. 구현과 모델보다는 개념위주로 보면 좋겠다. Introduction 생성이란 무엇인가에 대하여 저자들은 아래와 같이 답한다. 생성은 확률분포를 학습하여 확률분포에 있는 변수를 출력하는 것이고, 이는 또한 우리가 가진 데이터에서 가능도를 최대화 하는 것과 같다고 말한다. 즉, $$\max_{\theta \in R_d} \frac{1}{m}\sum_{i=1}^{m}logP_{\theta}(x^{(i)})$$ 이 논문에서는 continuity의 의미를 $\theta_t$ 가 $\theta$로 수렴하면,..
-
[CVPR2018]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation논문&부가지식 2021. 4. 23. 14:23
Abstract & Introduction 기존의 image-to-image는 모든 쌍마다 각각의 모델은 말들어 주어야 했다. 따라서 굉장히 비효율적인 훈련과 적용이 되었는데 StarGAN은 단 한개의 모델로 표정과 머리색 등을 바꿀 수 있다. 이는 Faceswap이 아닌 Face reenactment기법으로 표정이나 머리 색등을 바꿀 수 있는 GAN이라 보면 된다. 3가지 중요한 단어를 정의 attribute : 머리색, 성별, 나이 등으로 현재 데이터셋 각각의 특징 attribute value : attribute 의 특정 값들. 예를 들어 머리색은 갈색, 검정색 등등 domain : domain은 데이터셋이 아니라 하나의 도메인은 attribute value가 같은 이미지들의 집합이다. 즉, 검정색..