[Day 28] Convolutional Neural Networks 더 깊게 잠수하기

 안녕하세요!
오늘은 Day 28입니다!


오늘은 CNN 지식을 넓히려고 했다
오늘의 내용이 좀 어려우면서도 재미있었다
CNN 기초 지식, 널리 사용하는 CNN 아키텍처 ( LeNet, AlexNet, VGG-16, ResNet, MobileNets)에 대해 공부했다


1. 기초 지식
conv layer 어떻게 되는지 다시 공부했다
filter 파라미터에 따라 다양한 피처에 대해 알 수 있다
훈련 중 w1....w9 파라미터를 공부할 수 있어서 이미지의 다양한 피처를 알 수 있게 된다

이 사진을 보시면 conv 레이어, pool 레이어로 모델을 구성했다. 
pool 레이어 중 average, max 레이어가 있고 계산도 다르다.

좋은 아키텍처를 알고 싶으면 논문을 읽어서 알 수도 있다

2. 널리 사용하는 CNN 모델

LeNet
7 레이어: 3 conv, 2 pooling, 2 dense
- 손으로 쓰는 손가락 인식을 위하여

AlexNet
8 레이어: 5 conv,  max-pooling layer, 3 dense

VGG-16
conv + pool + dense layers


ResNet
다양한 아키텍처: ResNet-18, ResNet-50, ResNet-101, and ResNet-152
ResNet의 'skip connections'으로 많이 깊은 딥러닝 신경망 모델 훈련하게 했다. ResNet 더 알아보기 위해 kaggle에서 직접 사용해 봐야 한다! ~ 중요한 것 같다


1x1 convolutions
1x1 convolutions 신기한 개념인데 이 개념을 제안했던 논문을 한번 봐야겠다 - https://arxiv.org/abs/1409.4842 

마지막으로,
MobileNets
normal conv으로 하면, 비용이 2160인데 Mobile net으로 하면 비용이 672이다



'normal convolution'의 과정이 복잡하고 계산적으로 비용이 많이 드는 것이다. 

오늘의 내용을 좀 더 이해하려면 kaggle에서 이런 모델을 사용하는 notebook 읽을 것이다


오늘은 여기까지입니다!
내일 뵐게요!

Popular posts from this blog

[Day 198] Transactions Data Streaming Pipeline Porject [v1 completed]

[미리 공부] 기초 통계 복습 (Day 1는 1월2일)

[Day 61] Stanford CS224N (NLP with DL): Machine translation, seq2seq + a side CDCGAN mini project