Lecture

딥러닝 모델이 깊어질수록 발생하는 문제

딥러닝 모델은 층이 깊어질수록 더 복잡한 패턴을 학습할 수 있습니다.

하지만 신경망이 깊어질수록 여러 가지 문제가 발생할 수 있으며, 이러한 문제를 해결하지 않으면 AI 모델의 성능이 저하될 수 있습니다.

이번 수업에서는 딥러닝 모델이 깊어질수록 발생하는 주요 문제에 대해 알아보겠습니다.


1. 기울기 소실(Vanishing Gradient) 문제

신경망의 층이 깊어질수록, 앞쪽 층(입력에 가까운 층)에서 가중치가 제대로 조정되지 않는 문제가 발생할 수 있습니다.

이는 역전파 과정에서 기울기가 계속 작아지면서 가중치 업데이트가 거의 이루어지지 않는 현상입니다.


2. 기울기 폭발(Exploding Gradient) 문제

기울기 소실과 반대로, 신경망이 깊어질수록 기울기가 지나치게 커져서 가중치가 매우 큰 값으로 업데이트되는 문제가 발생할 수도 있습니다.

기울기 폭발 이슈가 발생하면 모델이 불안정해지고 학습이 실패할 가능성이 높아집니다.


3. 과적합 문제

층이 많아지면 모델이 훈련 데이터에 너무 잘 맞춰지는 과적합 문제가 발생할 수 있습니다. 이 경우, 새로운 데이터에 대한 일반화 성능이 저하됩니다.


4. 학습 속도 저하

층이 깊어질수록 학습에 필요한 연산량이 증가하여 학습 속도가 느려집니다.

일반적으로 연산량이 많아지면 학습 시간이 길어지고, GPU와 같은 하드웨어 자원이 더 많이 필요해집니다.


딥러닝 모델이 깊어질수록 더 복잡한 패턴을 학습할 수 있지만, 위와 같은 문제로 인해 성능이 저하될 수 있습니다.

이러한 문제를 해결하기 위해서는 활성화 함수를 활용해 기울기 소실 문제를 완화하거나 정규화, 표준화 등의 기법을 사용해야 합니다.

다음 수업에서는 일부 뉴런을 랜덤하게 제외하여 과적합을 방지하는 드롭아웃(Dropout) 기법에 대해 알아보겠습니다.

Mission
0 / 1

다음 중 기울기 소실 문제에 대한 설명으로 옳은 것은 무엇인가요?

모델 훈련이 매우 느려진다.

기울기가 지나치게 커져서 가중치가 매우 큰 값으로 업데이트된다.

모델의 가중치 업데이트가 거의 이루어지지 않는다.

모델이 훈련 데이터에 과적합된다.

Lecture

AI Tutor

Design

Upload

Notes

Favorites

Help