ML/혼자 공부하는 머신러닝 + 딥러닝

머신러닝 / 딥러닝 스터디 정리
ML/혼자 공부하는 머신러닝 + 딥러닝

혼자 공부하는 머신러닝 + 딥러닝 - 목차

01. 나의 첫 머신러닝 인공지능과 머신러닝, 딥러닝 코랩과 주피터 노트북 마켓과 머신러닝 02. 데이터 다루기 훈련 세트와 테스트 세트 데이터 전처리 03. 회귀 알고리즘과 모델 규제 k-최근접 이웃 회귀 선형 회귀 특성 공학과 규제 04. 다양한 분류 알고리즘 로지스틱 회귀 확률적 경사 하강법 05. 트리 알고리즘 결정 트리 교차 검증과 그리드 서치 트리의 앙상블 06. 비지도 학습 군집 알고리즘 k-평균 주성분 분석 07. 딥러닝을 시작합니다 인공 신경망 심층 신경망 신경망 모델 훈련 08. 이미지를 위한 인공 신경망 합성공 신경망의 구성 요소 합성곱 신경망을 사용한 이미지 분류 합성곱 신경망의 시각화 09. 텍스트를 위한 인공 신경망 순차 데이터와 순환 신경망 순환 신경망으로 IMDB 리뷰 분류하..

ML/혼자 공부하는 머신러닝 + 딥러닝

[혼공머신] 09. 텍스트를 위한 인공 신경망 - LSTM과 GRU 셀

핵심 키워드 #LSTM #셀 상태 #GRU 순환 신경망에서 빼놓을 수 없는 핵심 기술인 LSTM과 GRU 셀을 사용한 모델을 만들어보자 LSTM 구조 LSTM 셀 LSTM은 Long Short-Term Memory의 약자로 단기 기억을 오래 기억하기 위해 고안되었음 LSTM에는 입력과 가중치를 곱하고 절편을 더해 활성화 함수를 통과시키는 구조를 여러 개 가지고 있으며 이런 계산 결과는 다음 타임스텝에 재사용됨 LSTM에서 은닉 상태를 만들기 위해서는 입력과 이전 타임스텝의 은닉 상태(h)를 가중치(w)에 곱한 후 활성화 함수를 통과시켜 다음 은닉 상태를 만드는데, 이때 기본 순환층과 달리 시그모이드 활성화 함수를 사용하며 또 tanh 활성화 함수를 통과한 어떤 값과 곱해져서 은닉 상태를 만들게 됨 은닉 ..

ML/혼자 공부하는 머신러닝 + 딥러닝

[혼공머신] 09. 텍스트를 위한 인공 신경망 - 순환 신경망으로 IMDB 리뷰 분류하기

핵심 키워드 #말뭉치 #토큰 #원-핫 인코딩 #단어 임베딩 텐서플로를 사용해 순환 신경망을 만들어 영화 리뷰 데이터셋에 적용해서 리뷰를 긍정과 부정으로 분류하자 IMDB 리뷰 데이터셋 IMDB 리뷰 데이터셋 유명한 인터넷 영화 데이터베이스인 imdb.com에서 수집한 리뷰를 감상평에 따라 긍정과 부정으로 분류해 놓은 데이터셋 이러한 텍스트 자체는 신경망에 전달하지 않고 데이터에 등장하는 단어마다 고유한 정수를 부여하는 방법을 사용 일반적으로 영어 문장은 모두 소문자로 바꾸고 구둣점을 삭제한 다음 공백을 기준으로 분리하며, 이렇게 분리 된 단어는 토큰 토큰에 할당하는 정수 중에 몇 개는 특정 용도로 예약되어 있는 경우가 많음 0은 패딩, 1은 문장의 시작, 2는 어휘 단어에 없는 토큰을 나타냄 +) 자연어..

ML/혼자 공부하는 머신러닝 + 딥러닝

[혼공머신] 09. 텍스트를 위한 인공 신경망 - 순차 데이터와 순환 신경망

핵심 키워드 #순차 데이터 #순환 신경망 #셀 #은닉 상태 순차 데이터의 특징을 알고 순환 신경망의 개념을 학습하자 순차 데이터 순차 데이터 텍스트나 시계열 데이터와 같이 순서에 의미가 있는 데이터를 말함 텍스트 데이터는 단어의 순서가 중요한 순차 데이터이므로, 이런 데이터는 순서를 유지하며 신경망에 주입해야 함 순환 신경망 순환 신경망 완전 연결 신경망에 이전 데이터의 처리 흐름을 순환하는 고리 하나를 추가한 신경망 순차 데이터를 다룰 때는 이전에 입력한 데이터를 기억하는 기능이 필요하므로 신경망이 이전에 처리했던 샘플을 다음 샘플을 처리하는데 재사용하기 위해서는 데이터 흐름이 신경망 층에 순환되어야 함 그러므로 뉴런의 출력이 다시 자기 자신으로 전달하여 어떤 샘플을 처리할 때 바로 이전에 사용했던 데..

ML/혼자 공부하는 머신러닝 + 딥러닝

[혼공머신] 08. 이미지를 위한 인공 신경망 - 합성곱 신경망의 시각화

핵심 키워드 #가중치 시각화 #특성 맵 시각화 #함수형 API 합성곱 층의 가중치와 특성 맵을 시각화하여 신경망이 이미지에서 어떤 것을 학습하는지 이해해보자 가중치 시각화 가중치 시각화 합성곱 층은 여러 개의 필터를 사용해 이미지에서 특징을 학습하며 가중치는 입력 이미지의 2차원 영역에 적용되어 어떤 특징을 크게 두드러지게 표현하는 역할을 함 예를 들어 아래와 같은 가중치는 둥근 모서리가 있는 영역에서 크게 활성화되고 그렇지 않은 영역에서는 낮은 값을 만듦 이 필터의 가운데 곡선 부분의 가중치 값은 높고 그 외 부분의 가중치 값은 낮을 것 층의 가중치 분포 앞에서 만든 모델이 어떤 가중치를 학습했는지 확인하기 위해 체크포인트 파일을 읽어 들인 후, 케라스 모델에 추가한 층을 출력하기 위해 layers 속..

ML/혼자 공부하는 머신러닝 + 딥러닝

[혼공머신] 08. 이미지를 위한 인공 신경망 - 합성곱 신경망을 사용한 이미지 분류

핵심 키워드 #Conv2D #MaxPooling2D #plot_model 케라스 API를 사용해 합성곱 신경망 모델을 만들어 패션 MNIST 이미지를 분류하는 방법을 배우자 패션 MNIST 데이터 불러오기 패션 MNIST 데이터 케라스 API를 사용해 패션 MNIST 데이터를 불러오고 데이터 스케일을 0 ~ 255 사이에서 0 ~ 1 사이로 전처리한 후 훈련 세트와 검증 세트로 나눔 입력 이미지를 밀집층에 연결하기 위해 일렬로 펼쳐야했던 완전 연결 신경망과 달리, 합성곱 신경망은 2차원 이미지를 그대로 사용하기 때문에 일렬로 펼치지 않으며 입력 이미지는 항상 깊이(채널) 차원이 있어야 하므로 흑백 이미지에 채널 차원을 reshape() 메소드를 사용해 추가 합성곱 신경망 만들기 첫 번째 합성곱 층 합성곱..

ML/혼자 공부하는 머신러닝 + 딥러닝

[혼공머신] 08. 이미지를 위한 인공 신경망 - 합성공 신경망의 구성 요소

핵심 키워드 #합성곱 #필터 #특성 맵 #패딩 #스트라이드 #풀링 합성곱 신경망을 구성하는 기본 개념과 동작 원리를 배우고 간단한 합성곱, 풀링 계산 방법을 익히자 합성곱 밀집층 밀집층에는 뉴런마다 입력 개수만큼의 가중치가 있어 모든 입력에 가중치를 곱함 아래의 경우 가중치 w1 ~ w10과 절편 b를 랜덤하게 초기화한 다음 에포크를 반복하면서 경사 하강법 알고리즘을 사용해 손실이 낮아지도록 최적의 가중치와 절편을 찾아냄 밀집층에 뉴런이 3개 있다면 출력은 3개가 됨 즉, 밀집층의 뉴런은 입력 개수만큼 10개의 가중치를 가지고 1개의 출력을 만듦 합성곱 합성곱은 밀집층과 달리, 입력 데이터 전체에 가중치를 적용하는 것이 아니라 일부에 가중치를 곱함 뉴런이 3개의 가중치를 가진다고 가정할 때, 가중치 w1..

ML/혼자 공부하는 머신러닝 + 딥러닝

[혼공머신] 07. 딥러닝을 시작합니다 - 신경망 모델 훈련

핵심 키워드 #드롭 아웃 #콜백 #조기 종료 인공 신경망 모델을 훈련하는 모범 사례와 필요한 도구들을 다뤄보면서 텐서플로와 케라스 API에 익숙해지자 손실 곡선 손실 곡선 fit() 메소드로 모델을 훈련하면 훈련 과정이 상세하게 출력되며 에포크 횟수, 손실, 정확도 등을 확인할 수 있음 이뿐만 아니라 케라스의 fit() 메소드는 훈련 과정에서 계산한 지표 값이 저장되는 History 클래스 객체를 반환함 이 값을 사용하면 그래프를 그릴 수 있음 그래프를 위해 fit() 메소드의 결과를 history 변수에 담아 확인하게 되면 훈련 측정값이 담겨 있는 history 딕셔너리가 들어있음 이 딕셔너리에는 손실과 정확도가 포함되며, history 속성에 포함된 손실과 정확도는 에포크마다 계산한 값이 나열된 리스..

김깅긍
'ML/혼자 공부하는 머신러닝 + 딥러닝' 카테고리의 글 목록