가이드라인
실습
가이드라인

과소적합(underfitting) 자세히 알아보기

이번 수업에서는 과소적합(Underfitting)에 대해 조금 더 자세히 살펴보겠습니다.

과소적합은 AI 모델이 학습 데이터의 패턴을 충분히 학습하지 못해, 학습 데이터와 새로운 데이터 모두에 대해 성능이 좋지 않은 상태를 말합니다.


과소적합 비유적으로 이해하기

어린이가 공룡에 대해 배우기 시작했다고 가정해 보겠습니다.

처음에는 티라노사우루스라는 단어를 들었을 때 큰 이빨과 두 발로 걷는 큰 동물이라는 이미지만 학습합니다.

이 어린이에게 공룡 그림을 몇 개 보여주고, 이 중에서 티라노사우루스를 골라봐 라고 물었을 때, 만약 이 어린이가 공룡에 대해 너무 적게 배웠다면, 티라노사우루스를 잘못 인식할 가능성이 큽니다. 예를 들어, 크기가 작은 공룡이나 네 발로 걷는 공룡도 티라노사우루스라고 생각할 수 있습니다.

이 어린이는 티라노사우루스에 대한 충분한 정보를 학습하지 못해, 공룡을 제대로 구별하지 못하는 것입니다. 이러한 상태가 바로 과소적합입니다.


과소적합 해결방법

1. 모델 복잡성 증가

모델의 복잡성을 높여 데이터의 패턴을 더 잘 학습할 수 있도록 합니다. 예를 들어, 더 많은 특징을 가진 모델을 사용하거나, 더 체계적인 신경망을 사용하는 방법이 있습니다.


2. 충분한 학습 데이터 확보

모델이 충분한 데이터를 학습하도록 데이터의 양을 늘립니다. 다양한 상황과 패턴을 포함한 데이터를 사용하면 모델이 더 잘 학습할 수 있습니다.


3. 하이퍼파라미터 조정

학습률(Learning Rate)

학습률을 적절히 조정하여 모델이 충분히 학습할 수 있도록 합니다. 학습률이 너무 높으면 학습이 불안정해질 수 있지만, 너무 낮으면 과소적합이 발생할 수 있습니다.

배치 크기(Batch Size)

배치 크기가 적절하게 설정되어야 모델이 데이터의 패턴을 충분히 학습할 수 있습니다. 배치 크기가 너무 작으면 학습이 불안정해질 수 있지만, 너무 크면 과소적합이 발생할 수 있습니다.

에폭 수(Number of Epochs)

에폭 수를 늘려 모델이 충분히 학습할 수 있도록 합니다. 너무 적은 에폭 수는 과소적합을 유발할 수 있습니다.

Mission
0 / 1

가이드라인

AI 튜터

배포

디자인

업로드

수업 노트

즐겨찾기

도움말