Head vs breakz
[인공지능] - Optimizer 본문
- 학습 속도를 빠르고, 안정적으로 하는 것을 목표
<곰가드의 라이브러리 도움>
Gradient Descent
가장 기초 학습식으로 전체데이터를 사용
전체 데이터를 사용하기 때문에 시간이 오래걸림
Stochastic Gradient Descent
- 전체데이터가 아닌 분할하여 학습
Momentum
gradient를 수정
Gradient Descent를 통해 이동하는 과정에 관성을 추가
momentum term은 0.9 정도사용
Oscilation 현상 시 유용
SGD 방식에 비해 상대적으로 빠르게 이동
adam
gradient, learning rate 모두 수정
RMSProp + Momentum
Nesterov Accelerated Gradient
Adagrad
RMSProp
AdaDelta
Mini-batch Gradinet Descent
참고&도움
'Head > 인공지능' 카테고리의 다른 글
[인공지능] - 가중치 규제 (0) | 2020.02.03 |
---|---|
[인공지능] - YOLO (0) | 2020.01.29 |
[인공지능] - dropout (0) | 2020.01.23 |
[인공지능] - 활성화 함수 (0) | 2020.01.23 |
[인공지능] - 최적의 가중치 찾기 (0) | 2020.01.21 |
Comments