파이썬 python 딥러닝 최적화 SDG Gradient Descent Optimazation

지금까지는 네트워크를 최적화하기 위해 SGD (Stochastic Gradient Descent) 만 연구하고 사용했지만 딥 러닝에 사용되는 다른 최적화 방법이 있습니다. 특히 이러한 고급 최적화 기술은 다음 중 하나를 추구합니다. 1. 합리적인 분류 정확도를 얻기 위해 시간 (즉, 에포크 수)을 줄입니다. 2. 학습률 이외의 더 넓은 범위의 하이퍼 파라미터에 대해 네트워크를 더 “잘 작동”하도록 만듭니다. 3. 이상적으로는 SGD로 …