본문 바로가기
📂 프로젝트/◾ 국비지원 2차

[2차 프로젝트] CNN 구조의 차량 분류 모델 연구 (4) (개발자 취업코스, 국비 지원, 구글 크롤링, 데이터 전처리, 이미지 전처리, 전이 학습, CNN 모델)

by 이 정규 2023. 2. 7.
728x90
반응형

2023.02.07 - [Project] - [2차] CNN 구조의 차량 분류 모델 연구 (3)

 

[2차] CNN 구조의 차량 분류 모델 연구 (3)

2023.02.07 - [Project] - [2차] CNN 구조의 차량 분류 모델 연구 (2) [2차] CNN 구조의 차량 분류 모델 연구 (2) 2023.02.07 - [Project] - [2차] CNN 구조의 차량 분류 모델 연구 (1) [2차] CNN 구조의 차량 분류 모델 연

zzgrworkspace.tistory.com

Custom 데이터 셋에 좋은 성능을 내는 CNN 구조의 차량 분류 모델을 만드는 것까지 완료했다. 하지만 첫번째 포스트에서 언급했듯 최종적인 목표는 범용적인 이미지 분류 모델을 만드는 것이었다. 그래서 적인 kagglecars classification 습시. 습시33, kagglecars classification 20. 이 있33해 학습시추출feature map20.

기존 모델의 출력층을 kaggle 데이터 셋에 맞춰 수정하였다.

outputFlatten layer, Fully Connected layersoftmax 33classification20classification.

Kaggle 데이터셋에 대한 학습 결과와 loss, accuracy 그래프

train dataset77%, validation dataset76%accuracy결과가 . validationtrain결과가 . 9900의 이, 않아.

추가적으로 아쉬운 점은 연구 환경으로 GPU와 RAM의 부재였다. 작업 수행은 GoogleColab. GPURAM계가 224x224input, 9900.

 

Ref.

[1] Chollet, Franc ̧ois. ”Xception: Deep learning with depthwise separable convolutions.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2017.

[2] G. Huang, Z. Liu, L. Van Der Maaten and K. Q. Weinberger, ”Densely Connected Convolutional Networks,” 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, pp. 2261-2269, doi: 10.1109/CVPR.2017.243.

[3] He, Kaiming, et al. ”Deep residual learning for image recognition.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.

[4] Howard, Andrew G., et al. ”Mobilenets: Efficient convolutional neural networks for mobile vision applications.” arXiv preprint arXiv:1704.04861 (2017).

[5] Zoph, Barret & Vasudevan, Vijay & Shlens, Jonathon & Le, Quoc. (2018). Learning Transferable Architectures for Scalable Image Recognition. 8697-8710. 10.1109/CVPR.2018.00907.

[6] Eunwan Kim, Jeonghoon Choi, Bowoo Kim, Dongjun Suh. (2022). A Study on the Development of Strawberry Growth Stage Classification Model. Proceedings of Symposium of the Korean Institute of communications and Information Sciences, (), 1002-1003.

[7] “Bag-of-Tricks — , ”, scalalang2, 2020819, 2022
1128, https://medium.com/curg/%EB%94%A5%EB%9F%AC%EB%8B%9D-%EC%84%B1 %EB%8A%A5%EC%9D %84-%EB%86%92%EC %9D%B4%EA %B8%B0-%EC%9C %84%ED%95%9C- %EB %8B%A4%EC%96%91%ED%95%9C-%EA%BF%80%ED%8C%81%EB%93%A4-1910c6c7094a.

[8] “(Tip!)”,FacerAin, 2022731, 20221129, https://facerain.club/improve-dl-performance.

[9] “”, ,,, 2020330, 20221128, https://woongjun- warehouse.tistory.com/2.

[10] “14. ”,Codetorial, 2020825, 20221128, https://codetorial.net/tensorflow/transfer learning.html.

[11] “2.0 ()”, Loner, 2020125, 202211 29, https://wiserloner.tistory.com/1218.[12] “작은 ”, KEKOxTutorial, 20181024, 20221130, https://keraskorea.github.io/posts/2018-10-24little data powerful Model.

[12] “작은 ”, KEKOxTutorial, 20181024, 20221130, https://keraskorea.github.io/posts/2018-10-24little data powerful Model.

[13] “Transfer Learning / Fine Tuning”,, 2021312, 2022121, https://durian9s-coding-tree.tistory.com/9.

728x90
반응형

댓글