2024.04.20 (토)

  • 흐림동두천 1.0℃
  • 흐림강릉 1.3℃
  • 서울 3.2℃
  • 대전 3.3℃
  • 대구 6.8℃
  • 울산 6.6℃
  • 광주 8.3℃
  • 부산 7.7℃
  • 흐림고창 6.7℃
  • 흐림제주 10.7℃
  • 흐림강화 2.2℃
  • 흐림보은 3.2℃
  • 흐림금산 4.4℃
  • 흐림강진군 8.7℃
  • 흐림경주시 6.7℃
  • 흐림거제 8.0℃
기상청 제공

[청년발언대] 과적합에 의한 인공지능 모델의 한계

 

【 청년일보 】 최근 인공지능 분야는 눈부신 발전을 이루었다. 그림을 그려주는 인공지능부터 웹 정보를 기반으로 인간과 대화하는 chatGPT까지 인간의 창의성까지 인공지능이 모사하는 수준에 이르렀다.


이러한 발전을 체험한 몇몇 사람들은 인공지능이 데이터만 있으면 특정한 일을 완벽하게 해낼 수 있을 것이라 믿는다. 과연 인공지능이 실수 없이 100% 자신이 맡은 일을 정확하게 수행할 수 있을까? 결론부터 말하자면 불가능에 가깝다. 그 이유는 인공지능 모델이 너무나도 뛰어나기 때문이다.


왜 인공지능 모델 성능이 뛰어남에도 불구하고 인공지능에 오류가 발생할까? 이는 과적합(overfitting)이 주요한 이유로 작용한다.


간단한 예시를 생각해 보자. 2차원 좌표평면 상에 y = x 위에 있는 100개의 좌표를 인공지능 모델에 학습해서 x 값을 넣었을 때, 그 값 그대로 출력하는 모델을 만든다고 가정하자.


현재 놀라운 성능을 보여주는 딥러닝 모델을 이러한 예시에 사용한다면 인공지능 모델은 이 100개의 점을 모두 지나는 100차 함수를 학습하게 된다. 분명 학습 데이터에 있는 표본은 모두 인공지능 모델에 의해 예측 가능하다.


그렇다면 이 모델을 완벽하다고 할 수 있을까? 그렇지 않다. 우리가 바랬던 실제 함수는 y = x라는 단순한 함수이고 100개의 점에 포함되지 않은 다른 점을 인공지능 모델에 넣어보면 전혀 다른 값을 출력하는 것을 알 수 있다.


인공지능 모델은 자신의 예측과 학습 데이터의 정답 간의 오차를 줄이는 방식으로 학습을 진행한다. 하지만 모델의 성능이 뛰어난 나머지 자신의 예측을 학습 데이터의 정답에 맞춰버린다. 이는 앞으로 들어올 데이터의 경향을 무시하고 학습 데이터의 경향에만 집중하게 되기 때문에 앞으로 들어올 데이터의 예측 성능은 굉장히 낮게 나온다. 이 현상을 과적합(overfitting)이라 한다.


그렇다면 이 과적합 현상은 어떻게 줄일 수 있을까? 가장 간단한 방법은 우리가 모델에 들어가는 함수를 직접 수식으로 나타내고, 인공지능은 함수의 계수를 학습하는 방식이 있다. 방금 예제에서 데이터가 선형 관계로 이루어졌다는 것을 학습 전에 깨달아, 일차함수를 학습하는 방향으로 모델을 설계하면 100%의 정확도를 이룰 수 있다.


하지만 이는 데이터가 특정한 관계를 가진다는 것을 학습 전에 알아야 한다는 단점이 있다. 실생활의 대부분의 데이터 셋은 거의 비선형 관계에 있다. 이 비선형 관계를 수식으로 나타낸다는 것은 거의 불가능에 가깝다.


결국 현재 이루어지고 있는 과적합 방지 기법은 모델의 학습 방식에 제한을 두는 것이다. 계수의 크기가 너무 커지는 것을 방지하거나, 일정 학습 단계가 지나면 학습을 멈추는 등 인공지능의 학습 능력을 저하하는 방식으로 과적합을 방지한다. 즉, 우리는 인공지능의 학습 능력을 전부 활용하지 못하고 일정 수준에서 만족한다는 것이다.


인간조차 실수를 하기 때문에 인공지능에게 완벽을 기대하는 것은 꽤 먼 이야기가 될 것이다. 결국 인공지능이 학습하는 데이터는 사람이 만들고, 특히 지도학습의 정답 데이터는 오차가 많이 생기기 때문에 이러한 오차는 인공지능이 과적합을 일으키게 만드는 요소로 작용한다.


최근에는 인공지능이 정답 데이터에 의존하지 않도록, 데이터 안에서 인공지능이 직접 패턴을 찾아내는 자가지도학습 또한 연구되고 있다. 인공지능이 데이터의 정답을 직접 찾아내는 그날까지 인공지능의 발전은 계속 이어질 것이다.

 


【 청년서포터즈 6기 홍진영 】

관련기사




청년발언대

더보기


기자수첩

더보기

배너
배너