Machine Learning (15) 썸네일형 리스트형 [Machine Learning Specialization by Andrew Ng 강의 노트] Course 3, 1. 머신러닝 어플리케이션 설정하기 Andrew Ng 교수님의 Deep Learning Specialization 강의를 정리한 내용입니다.Coursera가 아닌 네이버 부스트코스에서 제공하는 버전을 수강하고 있습니다. Test/Dev/Train SetsNN 구축을 이전까지 살펴보았다면, 실질적인 NN구축에 있어서 하이퍼파라미터 튜닝부터 최적화 알고리즘으로 어떻게 알고리즘 속도를 높일 것인지 등을 생각해보고자 합니다. Train/Dev Sets을 어떻게 설정할지 좋은 선택을 하는 것은 좋은 네트워크를 찾는데 영향을 줍니다. NN를 훈련할 때 필요한 초기값 설정이 있습니다. 예를 들어 다음 4가지가 있습니다.- layer 갯수- hidden unit 수- learning rates $\alpha$- activation functions 위와.. [Machine Learning Specialization by Andrew Ng 강의 노트] Course 2, 3. 파이썬과 벡터화 Andrew Ng 교수님의 Machine Learning Specialization 강의를 정리한 내용입니다.Coursera가 아닌 네이버 부스트코스에서 제공하는 버전을 수강하고 있습니다. 벡터화(Vectorization)은 for loop를 사용하지 않게 해주는 도구입니다. 딥러닝 알고리즘 구현의 결실을 거두게 하는 것이 바로 빅데이터인데요. 빅데이터는 연산이 오래걸릴 수 밖에 없고, 연산 시간이 오래걸리는 for loop 사용을 자제하는 것이 좋기 때문에 벡터화는 중요합니다. Vectorization 예시다음 그림과 같이 익숙한 식인 $z = wx+b$에서 w,b는 $n_x$ 차원을 가진 두 벡터인 경우를 봅시다.벡터화를 하지 않았을 때에는 대략적으로 다음 코드랑 비슷하게 for loop를 사용해서.. [Machine Learning Specialization by Andrew Ng 강의 노트] Course 2, 2. 신경망과 로지스틱회귀 Andrew Ng 교수님의 Machine Learning Specialization 강의를 정리한 내용입니다.Coursera가 아닌 네이버 부스트코스에서 제공하는 버전을 수강하고 있습니다. Neural Network를 프로그래밍으로 구현하기에 앞서 어떤 방식으로 구현할 수 있는지 알아보는 챕터입니다. Training 데이터를 for문을 통해 한줄한줄 들여다 보는 것을 추구하지 않기 때문에 Neural Network의 계산 방식인 역전파(backward propagation), 순전파(forward propagation)은 어떻게 구현되어 있는지 살펴볼 것입니다. 그리고 역전파, 순전파의 이해를 돕기 위해 logistic regression을 먼저 살펴볼 것입니다.이진 분류Logistic regressio.. [Machine Learning Specialization by Andrew Ng 강의 노트] Course 2, 1. 딥러닝 소개 Andrew Ng 교수님의 Machine Learning Specialization 강의를 정리한 내용입니다.Coursera가 아닌 네이버 부스트코스에서 제공하는 버전을 수강하고 있습니다. 강좌 소개Deep Learning은 전기가 세상에 등장했던 것처럼 많은 산업을 변화시키고 있습니다. 이미 헬스케어, 자율주행 등 일상에도 많이 사용되고 있습니다. Neural Network와 Deep Learning을 배우는 이 강좌의 최종 목표는 전통적으로 고양이를 인식하는 모델을 만드는 것입니다. 목차는 다음과 같습니다. - Neural Network, Deep Learning 기초- 하이퍼파라미터를 통해 Deep Neural Network 향상하기- Machine Learning 프로젝트 구성하기- Convolu.. [Machine Learning Specialization by Andrew Ng 강의 노트] Course 1, Week 3, Lesson 4. Regularization to Reduce Overfitting Andrew Ng 교수님의 Machine Learning 강의를 정리한 내용입니다. 이번에는 호환마마보다 무섭다는 모델의 overfitting의 문제점에 대해서 보겠습니다. 그리고 overfitting을 방지할 수 있는 방법인 regularization에 대해서도 알아보겠습니다. Linear Regression으로 알아보는 underfitting과 overfittingUnderfit는 training set에 데이터가 그다지 맞지 않는 다는 의미이며 높은 편향 (=high bias)라고 불립니다. 사회적 의미의 편향은 성별이나 종교같은 성향 파악을 하는 것이라면 기술적인 의미의 편향은 알고리즘이 training data에 underfit하다, 알고리즘이 데이터를 제대로 설명하지 못한다 입니다. 알고리즘이.. [Machine Learning Specialization by Andrew Ng 강의 노트] Course 1, Week 3, Lesson 3. Gradient Descent Implementation Andrew Ng 교수님의 Machine Learning 강의를 정리한 내용입니다. Logistic regression에서 Cost function J(w,b)를 가장 최소로 하는 파라미터 w,b를 경사하강법으로 찾아보려고 합니다.Training Logistic RegressionJ(w,b) 에 들어가기에 앞서 y가 0 또는 1을 가지는 logistic regression의 f(x)는 다음과 같이 시그모이드 함수에 wx+b가 들어간 형태로 생겼고, 이를 통해 y=1로 나올 확률을 구할 수 있습니다.Gradient DescentCost function을 Lesson2에서 공부한대로 대입하면 다음 공식과 같습니다. 공식이 너무 길기 때문에 캡쳐로 대체합니다.그리고 경사하강법은 Cost function J(w.. [Machine Learning Specialization by Andrew Ng 강의 노트] Course 1, Week 3, Lesson 2. Cost Function Andrew Ng 교수님의 Machine Learning 강의를 정리한 내용입니다. 앞선 강의에서 cost function은 training data를 설명하는 특정 파라미터들이 얼마나 적절한지 측정가능하게 했습니다. 측정가능하게 되면서 우리는 cost function에 따라 더 나은 파라미터를 결정할 수 있었습니다. 그러나 linear regression에서 사용했던 squared error는 logistic regression에 사용하기에 적합하지 않다고 합니다. 새로운 cost function에 대해 알아보시죠.Cost Function for Logistic RegressionLogistic regression의 대표적인 예시 종양을 다시 데리고 나와보겠습니다. m개의 training samples.. [Machine Learning Specialization by Andrew Ng 강의 노트] Course 1, Week 3, Lesson 1. Classification Andrew Ng 교수님의 Machine Learning 강의를 정리한 내용입니다. Linear Regression은 출력변수 y가 다양한 값을 가질 수 있었습니다. 이번주는 출력변수 y가 몇 가지 값 중 하나만 가질 수 있는 분류에 대해서 공부해보고자 합니다. Linear Regression은 분류 (classification) 에 적합한 모델이 아님을 미리 스포하며, 그에 따라 logistic regression이라는 다른 알고리즘이 등장하게 되었습니다. Motivation 분류 (classification) 문제는 다음과 같은 예시를 들 수 있습니다. - 이메일이 스팸인가 아닌가 - 트랜잭션이 금융사기인가 아닌가 - 종양이 악성인가 아닌가 출력인 y의 값은 예, 아니오 두 가지 값만 가지게 되겠죠... 이전 1 2 다음