Posts

Showing posts from January 29, 2024

[Day 28] Convolutional Neural Networks 더 깊게 잠수하기

Image
 안녕하세요! 오늘은 Day 28입니다! 오늘은 CNN 지식을 넓히려고 했다 CNN by Andrew Ng 오늘의 내용이 좀 어려우면서도 재미있었다 CNN 기초 지식, 널리 사용하는 CNN 아키텍처 ( LeNet, AlexNet, VGG-16, ResNet, MobileNets)에 대해 공부했다 1. 기초 지식 conv layer 어떻게 되는지 다시 공부했다 filter 파라미터에 따라 다양한 피처에 대해 알 수 있다 훈련 중 w1....w9 파라미터를 공부할 수 있어서 이미지의 다양한 피처를 알 수 있게 된다 이 사진을 보시면 conv 레이어, pool 레이어로 모델을 구성했다.  pool 레이어 중 average, max 레이어가 있고 계산도 다르다. 좋은 아키텍처를 알고 싶으면 논문을 읽어서 알 수도 있다 2. 널리 사용하는 CNN 모델 LeNet 7 레이어: 3 conv, 2 pooling, 2 dense - 손으로 쓰는 손가락 인식을 위하여 AlexNet 8 레이어: 5 conv,  max-pooling layer, 3 dense VGG-16 conv + pool + dense layers ResNet 다양한 아키텍처: ResNet-18, ResNet-50, ResNet-101, and ResNet-152 ResNet의 'skip connections'으로 많이 깊은 딥러닝 신경망 모델 훈련하게 했다. ResNet 더 알아보기 위해 kaggle에서 직접 사용해 봐야 한다! ~ 중요한 것 같다 1x1 convolutions 1x1 convolutions 신기한 개념인데 이 개념을 제안했던 논문을 한번 봐야겠다 -  https://arxiv.org/abs/1409.4842   마지막으로, MobileNets normal conv으로 하면, 비용이 2160인데 Mobile net으로 하면 비용이 672이다 'normal convolution'의 과정이 복잡하고 계산적으로 비용이 많이 드는 것이다.  오늘의 내용을 좀 더 이해하