Lecture

반복 학습하는 횟수를 결정하는 에폭

책 한 권을 한 번만 읽는 것보다 여러 번 반복해서 읽을 때 내용을 더 깊이 이해할 수 있습니다.

머신러닝 모델도 마찬가지로, 주어진 데이터를 여러 번 학습해야 더 정확한 예측을 할 수 있습니다.

이때 모델이 전체 데이터를 몇 번 반복해서 학습할지를 결정하는 하이퍼파라미터가 에폭(Epoch)입니다.


에폭이 중요한 이유

모델은 데이터를 한 번만 학습하면 충분한 패턴을 학습하지 못할 수 있습니다.

따라서 데이터를 여러 번 학습하면서 점점 더 나은 예측을 할 수 있도록 조정해야 합니다.

하지만 에폭이 너무 많거나 적으면 학습이 제대로 이루어지지 않을 수 있습니다.


에폭이 너무 적을 경우

모델이 충분히 학습하지 못하고 과소적합(Underfitting)이 발생할 수 있습니다.

즉, 데이터를 제대로 학습하지 못해 새로운 데이터를 예측하는 성능이 낮아질 수 있습니다.


에폭이 너무 많을 경우

모델이 훈련 데이터에만 지나치게 맞춰져 과적합(Overfitting)이 발생할 수 있습니다.

즉, 학습 데이터에서는 높은 성능을 보이지만, 새로운 데이터에서는 성능이 저하될 수 있습니다.


에폭 설정 방법

에폭을 설정할 때는 일반적으로 10~100 사이의 값을 사용하며, 데이터의 크기와 복잡도에 따라 적절한 값을 찾아야 합니다.

학습이 진행될수록 성능 향상이 둔화된다면, 조기 종료(Early Stopping) 기법을 사용하여 불필요한 학습을 방지할 수 있습니다.


다음 수업에서는 에폭이 너무 많을 경우 발생할 수 있는 과적합에 대해 자세히 알아보겠습니다.

Mission
0 / 1

다음 중 빈칸에 가장 적절한 단어는 무엇일까요?

에폭이 너무 적을 경우 모델이 충분히 학습하지 못하고 이 발생할 수 있습니다.
과적합
과소적합
조기 종료
성능 향상

Lecture

AI Tutor

Design

Upload

Notes

Favorites

Help