이 시리즈는 스탠퍼드에서 제공하는 머신러닝 강의를 듣고 스터디를 진행하며 몰랐던 혹은 헷갈렸던 개념들 위주로 정리합니다
-
세타 j 옆에 : 은 j+1, 즉 업데이트 된 다음 항을 의미하는 notation이다.
-
gradient descent시 gradient 값의 부호와 상관없이 기울기 절대값이 작아지는 쪽으로 이동하게 된다
-
gradient가 음수면 세타에 양수값을 더해주는 것이므로, 그림에서 처럼 세타가 증가 > minima로 이동
-
gradient가 양수면 세타에 음수값을 더해주는 것이므로 그림에서 처럼 세타가 감소 > minima로 이동
'ML & DL' 카테고리의 다른 글
[NLP] Seq-to-Seq (0) | 2019.12.07 |
---|---|
[딥러닝]RNN과 LSTM (0) | 2019.11.18 |
[머신러닝]SVM(Support Vector Machine) by MIT (0) | 2019.11.16 |
[머신러닝]Machine Learning(standford) 2강 - feature scaling/learning rate/polynomial regression (5) | 2019.11.01 |
텍스트 전처리(Boaz NLP 1팀) (0) | 2019.10.31 |