2020.10.23 (금)

  • 맑음동두천 3.7℃
  • 맑음강릉 9.4℃
  • 맑음서울 7.6℃
  • 구름많음대전 8.8℃
  • 맑음대구 10.1℃
  • 구름조금울산 10.4℃
  • 맑음광주 11.6℃
  • 구름많음부산 10.9℃
  • 맑음고창 11.4℃
  • 구름많음제주 15.6℃
  • 맑음강화 7.3℃
  • 맑음보은 3.8℃
  • 맑음금산 7.3℃
  • 구름많음강진군 12.4℃
  • 구름많음경주시 10.1℃
  • 구름조금거제 11.6℃
기상청 제공

발전하는 AI, 윤리문제는 숙제…표준화 된 기준 마련 '시급'

입법조사처 “AI, 인간 편익 증대…그에 비례해 위험도 커져 대책 필요”
“정부, AI 윤리기준 거버넌스 마련…사후 감시‧감독 시스템 도입해야”
“기업, AI 윤리책임 강화 필요…책임 요건 규정, 배상책임제도 보완”

 

【 청년일보 】인공지능(AI)이 발전하면서 기업들이 앞다퉈 AI를 활용한 제품들을 속속 들이 내놓고 있는 가운데 AI 사용이 확대되면서 이에 비례해 위험이 증가할 수 있다는 지적이 나오고 있다.

 

이에 따라 세계 각국이 AI 사용에 대한 부작용을 방지하기 위해 AI 윤리와 관련된 대책을 마련 중인 만큼 우리나라도 AI의 윤리적 사용을 위한 표준화된 기준 마련 등 개선이 필요하다는 주장이 제기됐다.

 

국회 입법조사처는 최근 발간한 ‘인공지능의 윤리적 사용을 위한 개선과제’ 보고서에서 “AI의 안전한 사용을 위해서는 AI 설계과정과 최초 개발 목적대로 사용하고 있는지 점검할 수 있는 기준을 마련할 필요가 있다”며 이 같이 밝혔다.

 

AI란 컴퓨터에서 인간과 같이 사고하고, 생각하고, 학습하고 판단하는 논리적인 방식을 사용하는 컴퓨터 프로그램을 말한다. 즉, 인간의 지능을 본따 만들어 인간처럼 스스로 생각하고 판단하고 일을 처리할 수 있는 능력을 가졌다.

 

AI, 편익과 위험 공존…각국별 윤리활동 강화 '주목'

 

보고서에 따르면 AI는 인간의 편익을 증대시키지만, 그에 못지않게 위험도 증대시키고 있다.

 

지난 2017년 글로벌 리스크 보고서(Global Risk Report)에 따르면 12개의 새로운 기술 중 AI와 로봇공학이 편익과 위험이 모두 가장 큰 것으로 조사됐다.

 

AI의 위험사례는 아마존의 채용시스템에서 확인 할 수 있는데, 아마존은 2014년 AI을 이용한 채용시스템을 활용했지만, 여성을 차별하는 알고리즘이 발견돼 2015년도에 해당 시스템을 폐기한 바 있다.

 

또한 미국에서 널리 사용되는 재범 위험예측 알고리즘인 COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)는 흑인과 백인 간의 재범 예측률에 있어서 흑인에게 불리한 결과를 나타냈고, 최근에 아마존에서 개발한 안면인식 기술이 미국 국회의원 28명을 범죄자로 잘못 인식한 사례도 있었다.

 

 

세계 각국은 이 같은 AI의 부작용을 방지하기 위해 'AI 윤리 활동'을 강화하고 있다. 

 

유럽연합 집행위원회는 ‘신뢰할 수 있는 AI를 위한 윤리 가이드 라인’을 발표한 바 있다. 주요 내용을 보면 ▲인간에 의한 감독 ▲투명성 ▲다양성 ▲비차별 ▲공정성 등과 관련이 있다.

 

프랑스는 대통령 주도 아래 유럽의 AI 관련 규정을 개정하고, AI 기술의 투명성 확보를 위한 모델 개발과 윤리위원회를 설립했으며, 싱가포르는 정부와 업계, 학계 및 대중과의 소통을 위한 체계를 구축하고 있다.
 

미국 상원은 AI 사용을 규제하는 법안을 발의했는데, ‘SNS에서 봇을 통한 정치적 선전을 방지하기 위해 자동화된 소프트웨어 사용을 제한하는 법안’과 ‘인터넷서비스 제공자가 AI 알고리즘 활용 시 이를 사용자에게 알리고, 사용자는 이를 사후 거부할 수 있는 필터버블 투명법안’ 등이다.
 
이 외에도 영국, 호주 등이 윤리기준을 정하고 있고, 독일은 AI 시스템을 5가지 단계로 나눠 규제하는 방안을 마련하고 있다.

 

이 같은 각국의 대책을 요약하면 유럽연합집행위원회는 사람에 의한 감독, 투명성 등 일반적인 윤리기준을 제시하고 있는 반면 프랑스, 싱가포르, 미국 등은 윤리위원회 설립, AI 윤리와 관련된 사람간의 소통체계 구축, 자동화된 소프트웨어 사용 제한에 관한 규제 법안 발의 등 윤리기준을 구현하기 위한 구체적인 방안을 소개하고 있다. 

 

AI 편견‧남용 방지에 노력 긴요...정부와 기업 비롯 국민 모두의 공동노력 필요

 

우리나라는 지난해 12월 발표된 ‘국내 AI 전략’에서 사람중심의 AI 구현을 제시하고, 안전한 AI 사용을 위한 AI 역기능 방지와 AI 윤리 정립을 제안한 바 있다. 현재 국내 AI 윤리 헌장은 정부와 공공기관이 제정한 윤리 헌장 5개와 비영리기관과 카카오가 마련한 윤리 헌장 2개 등 총 7개가 있다.

 

국내 윤리 헌장 중에는 지능정보사회 윤리 헌장이 있긴 하지만, 이 윤리 헌장이 모든  기술에 적용되는 윤리기준이라고 보기에 어려운 측면이 있고, 그 밖의 헌장은 각기 AI 사용 분야 별로 제정돼 있어 AI 전반에 관한 윤리기준이 미흡한 상태라고 입법조사처는 지적했다.

 

 

그러면서 입법조사처는 AI 관련 문제점에 대한 몇 가지 개선책을 제시했다.

 

입법조사처는 “AI가 다양한 분야에서 사용되고 있지만, 이로 인한 부작용은 적용기술에 따라 차이가 없다는 점에서 체계적‧표준적인 윤리기준이 필요하다”면서 “이를 위해 정부 부처뿐만 아니라 관련 기업, 학계, 시민단체가 참여해 함께 논의하는 한편, AI 사용 확대로 발생할 수 있는 윤리기준과 관련된 문제를 조정‧해결할 수 있는 거버넌스를 둬야한다”고 강조했다. 

 

또한 “AI 개발단계에서는 사전에 문제점을 스크린할 수 있는 사전 기술영향평가 제도가 ‘과학기술기본법’에 도입돼 있지만, AI 사용 후 문제점에 대한 감시・감독시스템은 없다”고 지적했다.

 

그러면서 “AI의 복잡성, 불완전성으로 개발자도 예측하지 못한 문제가 발생할 수 있으므로 해당 AI 기술이 개발목적에 맞게 작동되고 있는지, 예측 못한 오류로 피해가 발생할 수 있는지를 사후에 체크하는 것이 중요하다”며 “AI 사용에 따른 문제점을 사후에 추적・평가할 수 있는 제도마련이 필요하다”고 밝혔다.

 

이와 함께 입법조사처는 ▲대학과 대학원, 일반 시민을 대상으로 한 AI 윤리교육 도입 ▲기업의 AI 윤리 책임 강화 ▲AI 피해에 대한 배상책임 제도 보완 등이 필요하다고 제언했다.

 

아울러 입법조사처는 “현재 법률이나 제도 등은 AI 개발·진흥에 중점이 있고, 안전한 사용에 관한 조치는 미흡한 측면이 있다”면서 “AI가 인간 삶과 조화를 이루며 발전할 수 있으려면 AI의 편견·남용 등을 방지하려는 노력을 기울여야 한다”고 강조했다.

 

【 청년일보=이승구 기자 】




Y-포토


배너
배너
배너
배너
배너
배너
배너
배너

기자수첩

더보기