확률적 경사 하강법, 빠르고 효율적인 학습 방법
확률적 경사 하강법(Stochastic Gradient Descent, SGD)
은 신경망이 학습할 때, 하나의 데이터 샘플을 무작위로 선택하여 매번 가중치를 업데이트합니다.
이 방식은 계산량이 적고 빠르게 수렴할 수 있어, 대규모 데이터셋을 학습할 때 많이 사용됩니다.
확률적 경사 하강법이 진행되는 과정
확률적 경사 하강법은 다음과 같은 단계를 반복하면서 학습을 진행합니다.
-
데이터 샘플 하나를 선택
-
손실 함수 계산
-
기울기(Gradient) 계산
-
가중치 업데이트
-
다음 샘플 선택 후 반복
이 과정을 반복하면서 모델이 최적의 가중치를 찾아가게 됩니다.
확률적 경사 하강법의 동작 방식
SGD는 다음과 같은 단계를 통해 학습을 진행합니다.
1. 샘플 선택 및 손실 함수 계산
데이터셋에서 무작위로 하나의 샘플 (x, y)
을 선택한 후, 현재 가중치에서 손실을 계산합니다.
손실 함수 예제
입력 데이터: x = 2.0, 실제값 y = 5.0 모델 예측값: 4.2 손실(MSE) = (5.0 - 4.2)^2 = 0.64
2. 기울기 계산
손실 함수의 기울기를 계산하여, 현재 가중치가 얼마나 조정되어야 하는지 확인합니다.
기울기 계산 예제
현재 가중치: 0.5 기울기(Gradient): -0.3
3. 가중치 업데이트
기울기를 이용하여 가중치를 업데이트합니다. 이때 학습률(Learning Rate, α)
을 곱하여 조정 속도를 조절합니다.
가중치 업데이트 예제
기존 가중치: 0.8 기울기: -0.2 학습률: 0.1 새로운 가중치: 0.8 - (0.1 * -0.2) = 0.82
이 과정을 모든 데이터 샘플에 대해 반복하여 가중치를 최적화합니다.
확률적 경사 하강법은 대규모 데이터셋에서 신속하게 학습할 수 있는 중요한 최적화 기법입니다.
다음 수업에서는 배치 경사 하강법(Batch Gradient Descent)
에 대해 알아보겠습니다.
Mission
0 / 1
다음 중 빈칸에 들어갈 가장 적절한 단어는 무엇인가요?
가중치 업데이트를 위해 를 곱하여 조정 속도를 조절합니다.
데이터 샘플
손실 함수
학습률
기울기
Lecture
AI Tutor
Design
Upload
Notes
Favorites
Help