반응형

혼공단/혼공단 5기 21

[혼공단 5기] 혼자 공부하는 머신러닝 + 딥러닝 6주차 후기 및 미션 인증 (+ 완주 소감)

[이번주 과제 - 6주차] 1. 진도 공부 : 7장 딥러닝을 시작합니다 2. 기본 미션 : 7-1절 문제 풀고 인증샷 3. 선택 미션 : 7-2절 문제 풀고 인증샷 ​ ​ 1. 진도 공부 1) 혼자 공부하는 머신러닝 + 딥러닝 7장 - 인공 신경망 링크 : sirokun.tistory.com/30 혼자 공부하는 머신러닝 + 딥러닝 7장 - 인공 신경망 1. 인공 신경망 - 생물학적 뉴런에서 영감을 받아 만든 머신러닝 알고리즘. - 기존의 머신러닝 알고리즘으로 다루기 힘들었던 이미지, 음성, 텍스트 분야에서 뛰어난 성능을 발휘하면서 주목받고 sirokun.tistory.com 2) 혼자 공부하는 머신러닝 + 딥러닝 7장 - 심층 신경망 링크 : sirokun.tistory.com/31 혼자 공부하는 머신러..

혼자 공부하는 머신러닝 + 딥러닝 7장 - 신경망 모델 훈련

1. 손실 곡선과 검증 손실 - 에포크 횟수가 증가함에 따라 손실곡선이 어떻게 변화하는지 그래프로 그려보겠습니다. #모델 생성 model = model_fn() model.compile(loss='sparse_categorical_crossentropy', metrics='accuracy') history = model.fit(train_scaled, train_target, epochs=20, verbose=0, validation_data=(val_scaled, val_target)) #손실곡선 그리기 plt.plot(history.history['loss']) plt.plot(history.history['val_loss']) plt.xlabel('epoch') plt.ylabel('loss') p..

혼자 공부하는 머신러닝 + 딥러닝 7장 - 심층 신경망

1. 심층 신경망 - 2개 이상의 층을 포함한 신경망. - 다층 인공 신경망, 심층 신경망, 딥러닝을 같은 의미로 사용하기도 한다. - 은닉층 : 입력층과 출력층 사이에 있는 모든 층 - 출력층에 적용하는 활성화 함수는 종류가 제한된다(이진 분류면 시그모이드, 다중 분류면 소프트맥스) - 은닉층에 사용하는 활성화 함수는 비교적 자유롭다. (시그모이드, 볼 렐루 함수등이 사용됨) 2. 렐루 함수 - 이미지 분류 모델의 은닉층에 많이 사용하는 활성화 함수 - 층이 많을 수록 활성화 함수 양쪽 끝에서 변화가 작기 때문에 학습이 어려워지지만 렐루 함수는 이런문제가 없으며, 계산도 간단하다. [실습코드] model = keras.Sequential() model.add(keras.layers.Flatten(inp..

혼자 공부하는 머신러닝 + 딥러닝 7장 - 인공 신경망

1. 인공 신경망 - 생물학적 뉴런에서 영감을 받아 만든 머신러닝 알고리즘. - 기존의 머신러닝 알고리즘으로 다루기 힘들었던 이미지, 음성, 텍스트 분야에서 뛰어난 성능을 발휘하면서 주목받고 있다. - 종종 딥러닝이라 부르기도 한다. - 출력층 : z1 ~ z10에 해당, 클래스를 예측하여 신경망의 최종값을 만드는 층 - 뉴런 : z의 값을 계산하는 단위, 현재는 유닛이라 부르는 사람이 더 많아지고 있다. - 입력층 : x1~x784에 해당, 픽셀값 그 자체이며 계산을 수행하진 않는다. 2. 텐서플로와 케라스 - 구글이 2015년 11월 오픈소스로 공개한 딥러닝 라이브러리이다. - 텐서플로에는 저수준 API와 고수준 API가 있는데, 케라스가 텐서플로의 고수준 API이다. - 케라스는 2015년 3월 프..

[혼공단 5기] 혼자 공부하는 머신러닝 + 딥러닝 5주차 후기 및 미션 인증

[이번주 과제 - 5주차] 1. 진도 공부 : 6장 비지도 학습 2. 기본 미션 : k-평균 알고리즘 작동 방식 설명하기 3. 선택 미션 : 6-3절 문제 풀고 인증샷 ​ ​ 1. 진도 공부 1) 혼자 공부하는 머신러닝 + 딥러닝 6장 - 군집 알고리즘 & k-평균 링크 : sirokun.tistory.com/27 혼자 공부하는 머신러닝 + 딥러닝 6장 - 군집 알고리즘 & k - 평균 1. 군집 - 머신러닝의 한 종류로 훈련 데이터에 타깃이 따로 없다. - 그러므로 스스로 유용한 무언가를 찾아 학습해야 한다. - 군집, 차원 축소등이 이에 해당한다. - 비슷한 sirokun.tistory.com 2) 혼자 공부 하는 머신러닝 + 딥러닝 6장 - 주성분 분석 링크 :sirokun.tistory.com/2..

혼자 공부하는 머신러닝 + 딥러닝 6장 - 주성분 분석

1. 차원과 차원 축소 차원 : 데이터가 가진 속성을 말한다. 특성과 동일한 의미이다 - 비지도 학습 방법 중의 하나이다. - 데이터를 잘 나타내는 일부 특성을 선택하여 데이터 크기를 줄이고 지도학습 모델의 성능을 향상시킬수 있다. - 차원 축소를 실행할 경우 과대적합을 방지할 수 있다. 2. 주성분 분석(Principal Component Analysis, PCA) - 주성분 분석은 데이터에 있는 분산이 큰 방향(데이터가 더 퍼져 있는 방향)을 찾는 것이다. - 주성분 벡터는 원본 데이터에 있는 어떠한 방향적 특성이다 - 따라서 주성분 벡터의 원소개수는 원본 데이터셋에 있는 특성 개수와 같다. - 주성분은 가장 분산이 큰 방향이기 때문에, 첫 번째 주성분이 분산이 가장 크고, 마지막으로 갈수록 분산이 ..

혼자 공부하는 머신러닝 + 딥러닝 6장 - 군집 알고리즘 & k - 평균

1. 군집 - 머신러닝의 한 종류로 훈련 데이터에 타깃이 따로 없다. - 그러므로 스스로 유용한 무언가를 찾아 학습해야 한다. - 군집, 차원 축소등이 이에 해당한다. - 비슷한 샘플끼리 그룹으로 묶는 작업 - 대표적인 비지도 학습 방법 중 하나이다. - 군집 알고리즘에서 만든 그룹을 클러스터(Cluster)라고 부른다. 2. k-평균 - 처음에 랜덤하게 클러스터 중심을 정하고 클러스터를 만든다. 그 다음 클러스터의 중심을 이동하고, 다시 클러스터를 만드는 식으로 반복해서 최적의 클러스터를 구성하는 알고리즘 - 클러스터 중심 : k-평균 알고리즘이 만든 클러스터에 속한 샘플의 특성 평균값. 센트로이드라고도 부른다. [실습 코드] from sklearn.cluster import KMeans #모델 생성 ..

[혼공단 5기] 혼자 공부하는 머신러닝 + 딥러닝 4주차 후기 및 미션 인증

[이번주 과제 - 4주차] 1. 진도 공부 : 5장 트리 알고리즘 2. 기본 미션 : 교차 검증을 그림으로 설명하기 3. 선택 미션 : 5-3절 앙상블 모델 손코딩 코랩 화면 인증샷 ​ ​ 1. 진도 공부 1) 혼자 공부 하는 머신러닝 + 딥러닝 5장 - 결정 트리 링크 : sirokun.tistory.com/23 혼자 공부하는 머신러닝 + 딥러닝 5장 - 결정 트리 1. 결정트리 - 여러 단계의 복잡한 조건을 갖는 문제와 그 조건과 그에 따른 해결방법을 트리 형태로 나타낸 것. 모든 비종점 노드가 하나의 결정을 나타내는 이진트리. - 사이킷런의 DecisionTreeCl sirokun.tistory.com 2) 혼자 공부 하는 머신러닝 + 딥러닝 5장 - 교차 검증과 그리드 서치 링크 : sirokun..

혼자 공부하는 머신러닝 + 딥러닝 5장 - 트리의 앙상블

1. 정형 데이터와 비정형 데이터 & 앙상블 학습 - 정형 데이터 : 구조가 정해져 있고 가지런히 정리된 데이터 - 비정형 데이터 : 데이터베이스나 엑셀로 표현하기 어려운 것들. 텍스트, 사진, 음성파일등이 해당된다. - 다양한 분류 알고리즘(주로 결정 트리를 기반)을 합쳐서 학습을 진행하는 방법 - 랜덤 포레스트, 엑스트라 트리, 그레이디언트 부스팅 등이 있다. 2. 랜덤 포레스트 - 결정 트리를 랜덤하게 만들어 결정 트리의 숲을 만든다. 그리고 각 결정 트리의 예측을 사용해 최종 예측을 만든다. - 랜덤 포레스트는 각 트리를 훈련하기 위한 데이터를 랜덤하게 만드는게 이때 부트스트랩 샘플을 사용한다. - 전체 세트에서 뽑았던 샘플을 다시 넣어서 복원 추출을 하게 하는 것. 이 경우 중복이 적용된다. -..

혼자 공부하는 머신러닝 + 딥러닝 5장 - 교차 검증과 그리드 서치

1. 교차 검증 - 테스트 세트를 사용하지 않고 모델이 과대적합인지, 과소적합인지 판단하는 방법. - 보통 전체 데이터중 20%를 테스트 세트로 80%를 훈련세트로 만든 뒤, 이 훈련 세트중 20%를 다시 떼어내서 검증세트로 만든다. - 많은 데이터를 훈련할수록 좋은 모델이 생기지만, 검증 세트를 너무 적게 때면 검증 점수가 들쭉 날쭉해질 것이다.. - 검증 세트를 떼어내는 과정을 여러번 반복 하는 것. - 사이킷런에는 cross_validate라는 교차 검증 함수가 있다. - 평가할 모델 객체를 첫번째 매개변수로 넣고, 두번째 매개변수로는 훈련세트 전체를 집어 넣는다. from sklearn.model_selection import cross_validate scores = cross_validate(..

반응형