Lumiere, and s5unnyjjj

DL-Theory #1 : GD(Gradient Descent)의 변형 알고리즘 본문

Artificial Intelligence/Deep Learning

DL-Theory #1 : GD(Gradient Descent)의 변형 알고리즘

s5unnyjjj 2021. 5. 16. 15:23
반응형

GD(Gradient Descent) 변형 알고리즘

 

GD(Grdient Descent)

SGD(Stochastic Gradient Descent)

 loss function을 계산할 때, 전체 데이터 대신 일부 조그만한 데이터(mini-batch)의 모음에 대해서만 loss 계산

 

 

Momentum

NAG

Adagrad

RMSProp

 Adagrad 식에서 gradient 제곱값을 더해나가면서 구한 

Adam

 Momentum 방식과 유사하게 지금까지 계산해온 기울기의 지수평균을 저장

 RMSProp과 유사하게 기울기의 제곱값의 지수 평균 저장

반응형
Comments