ML & DL
2019. 10. 26.
[머신러닝]Machine learning (stanford) 1강 - Gradient descent
이 시리즈는 스탠퍼드에서 제공하는 머신러닝 강의를 듣고 스터디를 진행하며 몰랐던 혹은 헷갈렸던 개념들 위주로 정리합니다 세타 j 옆에 : 은 j+1, 즉 업데이트 된 다음 항을 의미하는 notation이다. gradient descent시 gradient 값의 부호와 상관없이 기울기 절대값이 작아지는 쪽으로 이동하게 된다 gradient가 음수면 세타에 양수값을 더해주는 것이므로, 그림에서 처럼 세타가 증가 > minima로 이동 gradient가 양수면 세타에 음수값을 더해주는 것이므로 그림에서 처럼 세타가 감소 > minima로 이동