728x90
반응형
[논문 리뷰 - Inception v2 & v3] Rethinking the Inception Architecture for Computer Vision (CVPR 2016)
·
Backbone
본 논문은 CVPR 2016에 게재된 논문입니다. (저자 소속: Google)논문 링크: https://arxiv.org/pdf/1512.00567 1. Overview본 논문은 기존 모델의 문제점을 보완한 Incpetion-v2 와 Inception-v3를 제안합니다.Incpetion-v2 라는 기본 구조를 제시한 후에, 논문에서 소개한 기법들을 모두 적용한 버전이 Inception-v3 입니다. GoogLeNet(Inception-v1)의 문제점Inception 구조의 복잡성으로 인해 네트워크를 수정하는 것이 더 어려움단순한 변형만으로도 계산 비용과 파라미터 수가 매우 증가함 [Backbone] GoogLeNet 모델 설명 Going Deeper with Convolutions (CVPR 2014)본..
[Backbone] ResNet 모델 설명 Deep Residual Learning for Image Recognition (CVPR 2016)
·
Backbone
본 논문은 CVPR 2014에 게재된 논문입니다. (저자 소속: Microsoft Research)논문 링크: https://arxiv.org/pdf/1512.03385 1. ResNetResNet은 ILSVRC-2015와 COCO-2015 우승 모델입니다. 논문에서는 Skip Connection 기법을 적용한 Residual Block을 기반으로, 이전 모델보다 더 깊은 네트워크인 ResNet을 제안합니다.기존의 문제점: 네트워크의 깊이가 깊어질수록 underfitting 문제가 발생했다.  저자들의 아이디어: 성능이 좋은 얕은 네트워크(shallow network)에 층을 추가할 때, 이전 레이어의 입력을 출력에 더하면 최소한 얕은 네트워크만큼의 성능은 유지할 수 있어야 한다.  따라서 저자들은 위와..
[Backbone] GoogLeNet 모델 설명 Going Deeper with Convolutions (CVPR 2014)
·
Backbone
본 논문은 CVPR 2014에 게재된 논문입니다. (저자 소속: Google)논문 링크: https://arxiv.org/abs/1409.4842 1. GoogLeNetGoogLeNet은 ILSVRC-2014에서 우승한 모델입니다.본 논문에서 Inception 모듈이란 것을 처음으로 제안합니다. 전체적인 GoogLeNet 모델 구조입니다. (Inception-v1으로도 불립니다.)GoogLeNet 모델의 특징을 요약하자면 다음과 같습니다.Inception module: 다양한 사이즈의 filter와 pooling 레이어로 이루어진 구조1x1 convolutional layer: 차원 감소를 위한 레이어Auxiliary classifier: 효율적인 backpropagation을 위한 장치 2. Naive..
[Backbone] VGGNet 모델 설명 Very Deep Convolutional Networks for Large-Scale Image Recognition (ICLR 2015)
·
Backbone
본 논문은 ICLR 2015에 게재된 논문입니다. (저자 소속: University of Oxford)논문 링크: https://arxiv.org/pdf/1409.1556 1. VGGNetVGGNet은 ILSVRC-2014에서 준우승을한 모델입니다.2014년에 발표됐음에도 불구하고 현재까지도 정말 많은 모델들의 Backbone으로 쓰이는 아주 대단한 모델입니다.VGGNet 모델의 특징을 요약하자면 다음과 같습니다.Convolutional layer: 3x3 filter / stride 1 / pad 1Max-pooling layer: 2x2 window / stride 2Removal of LRVGG16(138M) & VGG19 (144M)VGG16과 VGG19의 구조는 위와 같습니다. 2. Why 3x..
[Backbone] AlexNet 모델 설명 ImageNet Classification with Deep Convolutional Neural Networks (NIPS 2012)
·
Backbone
본 논문은 NIPS 2012에 게재된 논문입니다. (저자 소속: University of Toronto)논문 링크: https://proceedings.neurips.cc/paper_files/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 1. AlexNetAlexNet은 ILSVRC-2012에서 우승한 최초의 CNN 기반 모델입니다.이후 Deep Learning 연구에 큰 발전을 가져다준 모델이기도 합니다.AlexNet 모델의 특징을 요약하자면 다음과 같습니다.60M 파라미터 (5개의 Convolutional + 3개의 fully-connected layers)ReLU 함수를 사용해서 모델의 비선형성을 증가시켰습니다.Data Augmentati..
[논문 리뷰 - Cycle GAN] Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks (ICCV 2017)
·
Generative Models
본 논문은 ICCV 2017에 게재된 논문이며,Pix2pix 모델을 제안한 기관인 BAIR laboratory, UC Berkely에서 작성한 논문입니다.논문 링크: https://arxiv.org/abs/1703.10593 1. OverviewPix2pix 모델은 Paired image, 즉 source - target 이미지가 짝지어진 데이터로 학습을 한다.당연히 이러한 데이터는 Unpaired 이미지보다 그 양이 적을 것이다.Cycle GAN 에서는 대량의, 그리고 다양한 Unpaired 이미지를 사용해서 style transfer를 수행한다.  2. Adversarial LossDomain X에서 Domain Y로 변환된 데이터는 다시 역변환을 수행하면 원본 데이터로 복원되어야 한다.이러한 아이디..
[OpenCV 에러] cv2.imwrite() 검정색 이미지로만 저장되는 현상 해결
·
에러 해결 모음집
문제 현상cv2.imwrite("test.jpg",img)위와 같은 코드를 작성했을 때 정상적인 상황이라면 원하는 이미지가 'test.jpg'로 저장되어야 한다. 하지만 위와 같이 아무것도 없는 검정색 이미지만 저장되는 문제가 발생했다. 원인OpenCV의 cv2.imwrite는 기본적으로 unit8 (0~255) 정수형 데이터를 입력으로 받습니다. 저장하고자 하는 사진이 float64 (0~1) 실수 형태라서 문제가 발생하는 것입니다.0~1 사이의 값은 검정색을 의미하는 0에 매우 가깝기 때문에 결과물이 검정색 이미지로 변환되게 됩니다. 해결 방법1. 픽셀값의 범위가 0~255 되도록 정규화하자. import cv2result = cv2.normalize(img, dst=None, alpha=0, bet..
[논문리뷰 - Pix2pix] Image-to-Image Translation with Conditional Adversarial Networks (CVPR 2017)
·
Generative Models
본 논문은 CVPR 2017에 게재된 논문입니다. (저자 소속: Berkeley AI Research, UC Berkely)논문 링크: https://arxiv.org/abs/1611.07004 1. Overview GAN 모델에서 특정 condition(information)을 기반으로 데이터를 생성하는 모델들을 conditional GAN이라고 합니다.Pix2pix는 conditional GAN 계열의 모델입니다.위의 사진처럼 Generator는 입력 이미지 x와 latent vector z를 모두 입력으로 받으며, Discriminator 또한 G(x)와 x를 이용해서 Real or Fake를 판별합니다.저자들은 Pix2pix 라는 간단한 모델 하나만으로도 여러 가지 image-to-image tr..
728x90
반응형