해당 실습은 iflearn "CNN_Fundamental" 강의에서 사용되었습니다. 실습 진행 순서대로 list-up 했습니다
1. Gradient Descent_01
Gradient_Desecent 내용은 딥러닝 수학 강의에서 배웠으므로 따로 이론을 정리하지 않았습니다.
2. Fashion_MNIST_02
2021.10.04 - [Data Diary] - 2021-10-04,05(딥러닝 CNN_기본 특징 설명)
2021-10-04(딥러닝 CNN_기본 특징 설명)
CNN은 이미지를의 일 부분을 자동으로 뽑아서 featrue로 사용한다. 반면 머신러닝은 일일히 feature를 뽑기 때문에 효율이 떨어진다. 또한 가변적으로 feature들이 변하기 때문에 성능에도 큰 영향을
ghdrldud329.tistory.com
3. Conv_practice_03
2021.10.04 - [Data Diary] - 2021-10-04,05(딥러닝 CNN_기본 특징 설명)
2021-10-04(딥러닝 CNN_기본 특징 설명)
CNN은 이미지를의 일 부분을 자동으로 뽑아서 featrue로 사용한다. 반면 머신러닝은 일일히 feature를 뽑기 때문에 효율이 떨어진다. 또한 가변적으로 feature들이 변하기 때문에 성능에도 큰 영향을
ghdrldud329.tistory.com
4. CIFAR10_Custom1
2021.10.08 - [Data Diary] - 2021-10-07(CNN_배치정규화 &따릉이 12)
2021-10-07(CNN_배치정규화 &따릉이 12)
1. 따릉이 수요예측 데이터 분리 시, random_state에 따른 학습 성능 차이가 크다는걸 확인하게 되었습니다. 왜그런지 추측을 해본다면 현재 갖고 있는 train data만 1300건 정도 밖에 없습니다. 게다가 F
ghdrldud329.tistory.com
5. CIFAR10_Custom_Aug1
2021.10.08 - [Data Diary] - 2021-10-08(CNN_Global AG, 가중치 규제, Augmentation)
2021-10-08(CNN_Global AG, 가중치 규제, Augmentation)
Global Average 각 채널 별로 평균값을 추출한다 . 이는 파라미터를 효과적으로 줄이는 효과가 있어서 오버핏팅을 상쇄시킬수 있다. 단, 채널 수가 적은 상태에서 적용하면 오히려 Flatten보다 성능 저
ghdrldud329.tistory.com
6. CIFAR10_pretrained & CatnDog_Gen(ImageDataGenerator)
2021.10.12 - [Data Diary] - 202-10-12(CNN_Pretained & Keras Generator의 이해)
202-10-12(CNN_Pretained & Keras Generator의 이해)
오늘 학습내용은 거의 실습 위주로 진행해서 이론내용은 많지 않았습니다! 특히 사전 학습은 같은 경우는 앞서 프로젝트에서 한번 해봤기 때문에 나름 익숙했습니다. *ImageDataGenerator ImageDataGenera
ghdrldud329.tistory.com
7. Albumentations_Aug
2021.10.15 - [Data Diary] - 2021-10-15(CNN_Augmentation)
2021-10-15(CNN_Augmentation)
오늘은 Augmentation의 전용패키지에 대해 필기한 내용을 업로드 해보았습니다 :) keras ImageDataGenerator에는 제약적인 부분이 있다. Augmentation을 무조건 많이 한다고해서 성능이 좋아지지 않는다. 각 이
ghdrldud329.tistory.com
'실습 note' 카테고리의 다른 글
딥러닝 수학 실습과제 모음 9~12 (0) | 2021.09.04 |
---|---|
딥러닝 수학 1~7 실습과제 모음 (0) | 2021.08.13 |
Mask-RCNN 실습모음(2021-07-29~02) (0) | 2021.08.02 |
EfficientDet 실습모음(2021-07-27~28) (0) | 2021.07.27 |
YOLO 실습 모음 (0) | 2021.07.21 |