[Machine Learning Specialization by Andrew Ng 강의 노트] Course 1, Week 1, Lesson 4. Gradient Descent
Andrew Ng 교수님의 Machine Learning 강의를 정리한 내용입니다. Gradient Descent Cost function인 J(w)의 값을 가장 작게 만드는 w,b 파라미터를 넣어서 계산해 보는 방법도 있지만, 경사하강법(Gradient Descent)이 가장 최적의 방법입니다. 경사하강법은 머신러닝 전체에서 사용되고 있으며, 선형회귀 뿐만 아니라 가장 advanced한 신경망 모델인 딥러닝의 학습에도 사용됩니다. 선형회귀가 아니더라도 cost function인 J(w1,w2,...,wn,b)의 값을 최소화하는 w1,w2,...,wn,b 값을 고른다고 간단하게 생각할 수 있습니다. w와 b의 초기값을 추측하는 것부터 시작할 수 있는데요, 선형회귀에서는 초기값이 중요하지 않기 때문에 보통..