2024.03.29 (금)

  • 흐림동두천 1.0℃
  • 흐림강릉 1.3℃
  • 서울 3.2℃
  • 대전 3.3℃
  • 대구 6.8℃
  • 울산 6.6℃
  • 광주 8.3℃
  • 부산 7.7℃
  • 흐림고창 6.7℃
  • 흐림제주 10.7℃
  • 흐림강화 2.2℃
  • 흐림보은 3.2℃
  • 흐림금산 4.4℃
  • 흐림강진군 8.7℃
  • 흐림경주시 6.7℃
  • 흐림거제 8.0℃
기상청 제공

[청년발언대] 설명 가능한 인공지능(XAI)이란?

 

【 청년일보 】설명 가능한 인공지능(XAI, eXplainable AI)은 인간 사용자가 기계학습 알고리즘에 의해 생성된 결과와 출력을 이해하고 신뢰할 수 있는 프로세스 또는 방법론을 의미합니다.

 

설명 가능한 인공지능은 인공지능 모형, 예상되는 영향 및 잠재적 편향 등 기계학습의 결과를 설명하는 데 주로 사용되고 있습니다.

 

이러한 설명 가능한 인공지능은 인공지능이 주도하는 의사 결정에서 모형 정확도, 공정성, 투명성 및 결과를 특성화하는 데 매우 큰 도움을 줄 수 있습니다.

 

또한, 설명 가능한 인공지능은 인공지능 모형을 생산에 투입할 때 신뢰와 신뢰를 구축하는 데 있어 조직에 매우 중요하며 인공지능의 설명성은 또한 조직이 인공지능 개발에 책임 있는 접근 방식을 채택하는 데 도움이 됩니다.

 

이러한 설명 가능한 인공지능은 인공지능이 발전함에 따라 인간은 알고리즘이 어떻게 결과물이 되었는지 이해하고 되돌리는 데 어려움을 겪는다는 문제점으로부터 시작되었다고 볼 수 있습니다.

 

일반적으로 데이터를 활용한 기계학습 과정에서 학습을 위한 계산 과정은 일반적으로 해석할 수 없는 "블랙박스(black box)"가 생성됩니다.

 

이러한 블랙박스는 데이터에서 직접 생성되며 알고리즘을 만드는 엔지니어나 데이터 과학자조차도 그들 안에서 정확히 무슨 일이 일어나고 있는지, 어떻게 인공지능 알고리즘이 특정한 결과에 도달했는지에 대해 정확하게 파악하거나 설명하는 데에 어려움을 겪을 수 있습니다.

 

이러한 블랙박스 내부에 어떠한 요소가 있는지 발생하기 위해 등장한 것이 설명 가능한 인공지능이며, 인공지능의 학습 결과가 어떻게 특정 출력으로 이어졌는지 ‘설명이 가능해지면서’ 여러 가지 이점을 발생시키게 됩니다.

 

우선 설명 가능성은 개발자가 시스템이 예상대로 작동하고 있는지, 프로젝트에서 요구하는 규제 표준을 충족하는 것이 필요할 수 있는지, 또는 결정에 영향을 받는 사람들이 결과에 도전하거나 결과를 변경하도록 하는 데 어떠한 요소가 중요한 지 확인하는 데에 도움이 될 수 있습니다.

 

또한, 기업과 같은 조직이 인공지능 모형에 대한 모니터링과 책임감 있는 인공지능 의사결정 프로세스를 완벽하게 이해하고 이를 맹목적으로 신뢰하지 않지 않도록 돕는 역할을 하며 사람들이 기계 학습, 심층 학습 및 신경망 등의 모형을 보다 쉽게 이해시키고 설명하는 데 도움이 될 수 있습니다.

 

더 나아가 설명 가능한 인공지능은 또한 최종 사용자에 대한 신뢰도 제고, 모형에 대한 효율적인 피드백, 그리고 인공지능의 생산적인 사용을 촉진하는 데 도움을 줄 수 있습니다.

 

이에 따라서 설명 가능한 인공지능은 실제 조직 내에서 공정성, 모형의 설명성, 책임성을 갖출 수 있는 인공지능 모형의 구현을 위한 핵심 요구사항 중 하나가 될 것으로 기대되며 실제로도 그러한 방향으로 발전하고 있습니다.

 

또한 책임감 있게 인공지능을 도입할 수 있도록 하기 위해서는 신뢰와 투명성을 바탕으로 한 인공지능 시스템을 구축해 윤리적인 원칙을 인공지능 애플리케이션과 프로세스에 접목해야 하기에, 이에 대한 교두보 역할을 할 수 있는 설명 가능한 인공지능은 앞으로도 그 중요성이 더욱 늘어날 것으로 보입니다.

 

 

【 청년서포터즈 3기 최인수 】

관련기사




청년발언대

더보기


기자수첩

더보기

배너
배너
배너
배너