목록분류 전체보기 (5)
무한한 심해 탐험
보호되어 있는 글입니다.
논문 출처 : NeurIPS 2019: Improved Precision and Recall Metric for Assessing Generative Models 주의할 점 : 논문을 다 해석하려고 하지 말고 (1) 문제점 도출 -> (2) 실험 결과 -> (3) 문제점에서의 개선점 및 앞으로의 목표 등 5장으로 줄여서 리뷰하기 (앞으로.. 그렇게 하겠다.. 허허) 개인적인 논문 감상(?) : 사실 모델 학습 방식의 종류에 따라 trade off이 달라진다고 했는데, 기존에 알고 있던 미니배치 등 뿐만 아니라 다양한 Training Configuration들이 있다는 것을 알게 되었고, 이 configuration을 적용함으로써 발생하는 타당한 상관관계로 인해 precision과 recall의 값을 변화..
기존의 통계학, 전통적인 통계 관점에서는 '빈도주의(Frequentism)'를 기반으로 엄격하게 확률 공간을 정의하고 계산을 통해 파생되는 빈도수를 기반으로 하여 확률을 계산하였다. ex. 가령, 동전 100개 중 앞면이 나올 확률을 구하기 위해서는 실제로 동전을 100번 던진 다음에 앞면이 나오는 횟수를 빈도를 통하여 얻는다. 이러한 빈도는 일어나지 않은 일에 대한 확률. 즉 불확실성이 연관되어 있고, 빈도 확률 방법으로는 측정이 어려운 사건들의 확률들에 대하여 신뢰할만한 값을 얻기 어렵다는 한계점이 존재했다. 베이지안 관점의 통계학에서는 이러한 반복할 수 없는 사건들, 일어나지 않은 일에 대한 확률을 추정하기 위해 사건과 관련있는 다른 여러 확률을 이용하여 새롭게 일어날 사건을 추정하는 것이 목표이다..
생성모델을 어떻게 평가할 것인가? Evaluating Generative Models Correctly : Density and Coverage Summary -> Fidelity와 Diversity Metrics는 평가 수단으로서 매우 유용하다. -> Precision과 Recall은 문제점을 가지고 있다. -> Density와 Coverage는 이러한 문제점을 해결할 수 있다. -> CNN 구조의 Random Embedding을 적용하게 되면 좀더 General한 어플리케이션이 가능하다. Outlier가 있어도 evaluation 모델이 영향을 받지 않게 하도록 만드는 것이다! 생성 결과물을 어떻게 평가할 것인가? 생성모델에 열광하는 이유는 무엇인가? 학습기반 모델은 대개 Discriminative ..