s5unnyjjj's LOG
DL-Theory #1 : GD(Gradient Descent)의 변형 알고리즘 본문
Artificial Intelligence/Deep Learning
DL-Theory #1 : GD(Gradient Descent)의 변형 알고리즘
s5unnyjjj 2021. 5. 16. 15:23GD(Gradient Descent) 변형 알고리즘
GD(Grdient Descent)
SGD(Stochastic Gradient Descent)
loss function을 계산할 때, 전체 데이터 대신 일부 조그만한 데이터(mini-batch)의 모음에 대해서만 loss 계산
Momentum
NAG
Adagrad
RMSProp
Adagrad 식에서 gradient 제곱값을 더해나가면서 구한
Adam
Momentum 방식과 유사하게 지금까지 계산해온 기울기의 지수평균을 저장
RMSProp과 유사하게 기울기의 제곱값의 지수 평균 저장
반응형
'Artificial Intelligence > Deep Learning' 카테고리의 다른 글
DL - Theory #3 : Flow of Actiation function (0) | 2022.04.01 |
---|---|
DL - Problem #7 : Dropout를 적용한 모델의 특정 node output 계산 (0) | 2021.06.05 |
DL - Problem #6 : Batch normalization를 이용한 특정 node의 output 계산 (0) | 2021.05.14 |
DL - Problem #5 : GD(Gradient Descent)를 이용한 가중치 업데이트 (3) (0) | 2021.05.11 |
DL - Problem #4 : GD(Gradient Descent)를 이용한 가중치 업데이트 (2) (0) | 2021.05.11 |
Comments