- 경사 하강법 외 다른 최적화 방법 소개
고속 옵티마이저
(1) 모멘텀 최적화
(2) 네스테로프 가속 경사
(3) AdaGrad (Adaptive Gradient)
- 그레디언트 최적점을 향해 가파른 곳은 빨리가고, 완만한 곳은 느리게 감
|
(4) RMSProp
(5) Adam과 Nadam 최적화
(6) 학습률 스케줄링
'* [R_Python] 데이터분석 정리 > [Python] 딥러닝' 카테고리의 다른 글
Attention (0) | 2023.05.02 |
---|---|
Aanconda prompt 이용한 가상환경에 Tensorflow/주피터노트북 설치 (0) | 2021.04.19 |
[핸즈온] 텐서플로 저수준 API 살펴보기 (0) | 2021.03.06 |
[핸즈온] 인공신경망 규제 사용 (0) | 2021.01.27 |
[핸즈온] 인공 신경망 소개 (0) | 2021.01.13 |