전체 글(77)
-
데이터 셋 분석 및 학습 비교(6) - keras CNN 레이어수 조정
이 전글에서 제일 정확도가 높았던 Keras CNN을 레이어 수와 Dense와 Dropout수를 조정하여 정확도를 좀 더 높여보고자 시도해봤다. 내가 시도했던 방법은 다음과 같다. keras CNN에 레이어 수를 2개 추가하여 총 18개 Dense와 Dropout추가(Dropout만 20%로 변경)(전테스트틑 50%였다) 이렇게 변형한 뒤 측정 결과 Epoch, batch_size 각각 100, 250 일 때 92.85%로 정확도를 보임 > 기존 CNN에 비하여 다소 증가 > epoch,batch_size 조정보다는 낮음 즉, Epoch, Batch_size를 조정한것보다 낮은 결과가 나온걸로 봐서 레이어 수를 건들이지 말고 batch_size와 epoch수를 건드려야겠다. 이유 : 과학습이 생겨 되려 ..
2021.06.12 -
데이터 셋 분석 및 학습 비교(5) - Batch_size와 Epoch의 변화에 따른 정확도 변화와 keras_library(early stopping)
이전 글들에서 했었던 실습내용을 정리를 해봐야겠다... 첫번째, 나는 Fashion MNIST데이터 셋을 Load하여 학습모델에 변화를 주고, (최적화함수, 활성화함수, 손실함수, epoch, Crossentropy)의 값들만 변화를 주어 정확도를 비교를 하고 있었다. 모델별로 정확도를 최종적으로 정리하면 ---------------------------------------------------------------------------------------------------------------------- 1) Softmax Classification Model -Layer 2개의 가벼운 모델 -최적화 함수 : Adam -활성화 함수 : Softmax -손실 함수 : Crossentropy -E..
2021.06.12 -
데이터 셋 분석 및 학습 비교(4) - Keras CNN 사용 및 결과 분석
이전 테스트에서는 keras Sequential Dense Net 학습모델의 정확도 비교 분석을 해보았다. 이번에는 Keras CNN을 사용하여 비교분석을 진행해보자 적용 파라미터 값은 다음과 같다. Layer : 16개 최적화함수 : Adam 활성화 함수 : Relu, Softmax 손실함수 : Crossentropy Epoch : 100 Batch_Size : 1000 Maxpooling, Dropout : 50% Conv network 사용(32, 6, 128, 256)으로 필터 증가 이전 테스트와 차이를 둔게 있다면 Maxpooling과 dropout을 각각 50% 적용했다. 지금 정리하는 결과는 정확도가 개선 된 것만 적는 중이다... 이 글을 정리하기 전에 많은 테스트를 해봤지만 정확도가 개선..
2021.06.12 -
데이터 셋 분석 및 학습 비교(3) - keras Sequential Dense Net사용 및 정확도 분석
이 전 글에서 Softmax Classification Model로 테스트를 진행했지만 얕은 레이어로 낮은 정확도가 나오는 것을 확인할 수 있었다. 이번에는 keras Sequential Dense Net을 사용하여 이전 테스트보다 정확도가 높아졌는지 그리고 배치사이즈와 활성화함수, 손실함수, epoch에도 변화를 주어 차이점을 비교분석해보고자 한다. keras Sequential Dense Net을 적용과 각 파라미터(배치사이즈와 활성화함수, 손실함수, epoch)는 다음과 같다. Layer 9개 사용 최적화함수 : Adam 활성화함수 : Relu, Softmax 손실함수 : Crossentropy Epoch : 100 Batch_size : 1000 이전테스트와 비교하기 위해 epoch와 Batch_..
2021.06.12 -
데이터 셋 분석 및 학습 비교(2) - 딥러닝이 필요한 이유와 단순(SoftMax Classification Model)적용
단순히 학습모델을 정해 놓고 테스트를 돌려보는 것은 의미가 없다.. 진짜 딥러닝이 왜 필요한지를 알고 시작하는 것이 중요하다고 생각한다.. 일단 단순히 SVM(SVC) 서포트 벡터 머신(support vector machine)으로 데이터 셋을 분류해 보았다. 5~6행 : Fashion MNIST 데이터 셋 LOAD 9~10행 : X_train (60000, 784), X_test (10000, 784)으로 Reshape 12~14행 : Train alc Test 실행 분석 결과 DashBoard(89.7%)(VGGnet을 돌렸을 때) 보다 다소 낮은 정확도를 보인다. (88%) 얼마 차이는 안나지만... 즉, 이차이를 통해서 우리는 두가지를 알 수 있다. 데이터 전처리의 차이와 sklearn SVM의 ..
2021.06.12 -
데이터 셋 분석 및 학습 비교(1) - VGGNet 분석
인공지능을 공부하면서 과연 내가 직접적으로 실습하면서 살에 와 닿게 공부할 수 있는 방법이 무엇이 있을까 찾던 중 학습모델을 지정하고 역전파 즉, Optimizer함수를 변경하고 각 파라미터를 조정하면서 정확도를 비교 분석하는 실습을 해볼까한다. 내가 실습을 위해 정한 데이터셋은 MNIST에 있는 Fashion MNIST이다. 위와 같이 MNIST 데이터 셋에는 의류이미지를 흑백사진으로 "이진화"한 데이터이다. 28x28 픽셀의 이미지로 70,000개로 이루어져 있다. 이 데이터 셋으로 원피스는 원피스, 구두는 구두, 바지면 바지 이렇게 구분하는 것을 실습해 볼 예정이다..... 물론 책에 있는 내용인데 뭣하러 글까지 쓰냐라고 할 수 있지만 나는 더 나아가서 여러 모델의 정확도를 비교분석하고 정확도의 차..
2021.06.12