본문 바로가기
📂 프로젝트/◾ 국비지원 2차

[2차 프로젝트] CNN 구조의 차량 분류 모델 연구 (3) (개발자 취업코스, 국비 지원, 구글 크롤링, 데이터 전처리, 이미지 전처리, 전이 학습, CNN 모델)

by 이 정규 2023. 2. 7.
728x90
반응형

2023.02.07 - [Project] - [2차] CNN 구조의 차량 분류 모델 연구 (2)

 

[2차] CNN 구조의 차량 분류 모델 연구 (2)

2023.02.07 - [Project] - [2차] CNN 구조의 차량 분류 모델 연구 (1) [2차] CNN 구조의 차량 분류 모델 연구 (1) 위 개와 고양이 이미지는 만약 이미지 분류를 했을 때, 특징이 뚜렷하여 구별이 쉽다. 하지만

zzgrworkspace.tistory.com

지난 포스트에서는 전이 학습 모델인 MobileNet, ResNet50, DenseNet121 중 MobileNet과 DenseNet121을 선정하게 된 배경까지 설명했다. 이어서 Fine tuning 진행 과정에 대해서 설명하고자 한다. 

layertrainable행했, fine tuninglayerfreezing imageNet weight . layerfreezing 은 convolution , 한 convolution trainablefine tuning행하.

MobileNet의 Convolution 층과 위치

MobileNetConvolution14. Convolution 습시accuracy, 결과가 8, 47, 84.

MobileNet의 47번 층에서 freezing 결과

47trainableaccuracy. 아래 MobileNetlayer 것에서 layer반복. , 47freezing 이유는 다과 같이 추측할 수 있다. MobileNet imageNet, 추출feature. feature추출한 기준47임을 추측할 수 있었다.

DenseNet121MobileNetConvolution 층120개. Convolution fine tuning행하에 어이 있. , DenseNet121MobileNet로 층 반복.

DenseNet의 전체 층 구조

MobileNetDenseNet121Average Pooling 3, 한 층 반복 Concatenate간격. Average Pooling accuracy 에 얼, Average Pooling 52, 140, 312Average Pooling 56, 144, 316fine tuning행하, accuracy. 아래 학습 결과 그래프를 통해 Average Poolingaccuracy승시다는 .

DenseNet121의 52번, 56번 층에서 freezing 결과
DenseNet121의 140번, 144번 층에서 freezing 결과
DenseNet121의 312번, 316번 층에서 freezing 결과

MobileNetfine tuning행했, fine tuning. DenseNet121Concatenate feature map을 이feature maplayer feature. Average Pooling , Concatenate 151fine tuning행했고 가, fine tuning행하.

DenseNet121의 144번, 147번, 151번 층에서 freezing 결과

는 달concatenate151Average Pooling144fine tuning 행했. 종적MobileNetfine tuning, DenseNet 144fine tuning행했train datasetloss 0.0048, accuracy 0.9986, validation datasetloss 0.0612, accuracy 0.9884.

 

최종적으로 DenseNet121, Figure 10Base CNN 행하. 144layerfreezingfine tuning행하, compile learning rate 0.0001. architecture은 아래.

최종 모델 Architecture

 

728x90
반응형

댓글