2024.04.27 (토)

  • 흐림동두천 1.0℃
  • 흐림강릉 1.3℃
  • 서울 3.2℃
  • 대전 3.3℃
  • 대구 6.8℃
  • 울산 6.6℃
  • 광주 8.3℃
  • 부산 7.7℃
  • 흐림고창 6.7℃
  • 흐림제주 10.7℃
  • 흐림강화 2.2℃
  • 흐림보은 3.2℃
  • 흐림금산 4.4℃
  • 흐림강진군 8.7℃
  • 흐림경주시 6.7℃
  • 흐림거제 8.0℃
기상청 제공

"AI로 신소재에서 신약개발까지"···LG, 엑사원 2.0 공개

LG AI연구원, 19일 ‘LG AI 토크 콘서트 2023’ 개최
추론 처리 시간 25% 단축, 메모리 사용량 70% 감소
"다른 생성형 AI들과 차별화된 고객 가치 창출할 것"

 

【청년일보】 구광모 LG그룹 회장의 미래사업 한 축이라 불리는 LG AI연구원이 한 층 업그레이드된 초거대 멀티모달(Multimodal) AI '엑사원 2.0'을 공개했다. 

 

LG AI연구원은 19일 서울 강서구 마곡 LG사이언스파크 컨버전스홀에서 이같은 내용들이 담긴 'LG AI 토크 콘서트 2023'을 열었다.

 

올해로 취임 5주년을 맞은 구광모 LG그룹 회장은 4차산업혁명 시대 들어 신성장동력으로 AI를 꼽으며 각별한 애정을 쏟고 있다. 

 

실제로 구 회장은 취임 초 이사진 회의에서 "배터리·전장 등 10년 먹거리는 있지만 그 다음이 문제"라면서 "AI 기술을 선제 개발해야 한다"고 강조한 바 있다.

 

이후 AI 기술 경쟁력 강화에 힘쓰고자 2020년 AI 연구 전담 조직인 LG AI연구원을 설립했고 이듬해 말 'AI 엑사원'을 공개했다. 이는 세계 최대 수준인 6천억개 이상의 말뭉치와, 이미지·텍스트로 짝지어진 3억 5천만장 이상의 데이터를 학습해 언어와 이미지 간의 양방향 데이터 생성을 구현한 초거대 AI다. 

 

LG 계열사와 국내외 파트너사들이 '엑사원'으로 보다 빠르고 편리하게 각 분야에 특화된 전문가 AI를 사용할 수 있도록 연구개발(R&D)을 이어왔다.

 

이번에 처음 공개한 '엑사원 2.0'은 파트너십을 통해 확보한 특허, 논문 등 약 4천500만 건의 전문 문헌과 3억 5천만 장의 이미지를 학습했다.  

 

특히 현존하는 전문 지식 데이터의 상당수가 영어로 되어 있는 점을 고려한 AI연구원은 '엑사원 2.0'을 한국어와 영어를 동시에 이해하고 답변할 수 있는 이중 언어(Bilingual) 모델로 개발했고, 학습 데이터 양도 기존 모델 대비 4배 이상 늘려 성능을 높였다.  

 

또한 초거대 AI의 고비용 이슈를 해결하기 위해 대규모 언어 모델(LLM)과 멀티모달 모델의 경량화, 최적화 신기술에 상당한 리소스를 투입했다.

 

'엑사원 2.0'의 언어 모델은 기존 모델과 동일한 성능을 유지하면서도 추론 처리 시간은 25% 단축하고, 메모리 사용량은 70% 줄여 비용을 약 78% 절감했다. 

 

언어와 이미지 간의 양방향 생성이 가능한 멀티모달 모델은 이미지 생성 품질을 높이기 위해 기존 모델 대비 메모리 사용량을 2배 늘렸지만, 추론 처리 시간을 83% 단축해 약 66%의 비용 절감을 달성했다.

 

이날 LG AI연구원은 '전문가 AI' 서비스 개발의 기반인 엑사원 3대 플랫폼인 ▲유니버스(Universe) ▲디스커버리(Discovery) ▲아틀리에(Atelier)를 차례로 공개했다.

 

먼저 엑사원 유니버스는 ▲질의응답·대화 ▲텍스트 분류·요약 ▲키워드 추출·생성 ▲번역 등 기능별로 메뉴를 나눴던 방식에서 전문가용 대화형 AI 플랫폼으로 완전히 '탈바꿈'했다.

 

LG AI연구원은 엑사원 유니버스를 각 분야의 전문가들이 믿고 정보를 탐색하며 인사이트를 찾을 수 있는 플랫폼으로 만들기 위해 전문성과 신뢰성을 높이는 데 주력했다고 설명했다.  

 

 

엑사원 유니버스는 다른 대화형 AI들과 달리 사전 학습한 데이터는 물론 각 도메인별 최신 전문 데이터까지 포함해 근거를 찾아내며 추론한 답변을 생성한다.

 

또, 질문에 대한 답변과 함께 화면 좌측과 우측에 각각 질문과의 연관성이 가장 높은 전문 문헌들과 AI가 답변하는 과정에서 활용한 단락을 표시한다.

 

LG AI연구원은 이날 시연한 엑사원 유니버스의 AI·머신러닝 분야 서비스를 이달 31일부터 LG 그룹 내 AI 연구자, 협력 중인 대학을 대상으로 시작하며, 9월에는 LG에서 AI를 연구하거나 공부하는 임직원 대상으로 정식 서비스를 진행한다는 계획이다.

 

이화영 유닛장은 "LG AI연구원은 화학, 바이오, 제약, 의료, 금융, 특허 등 엑사원 유니버스의 각 전문 도메인별 특화 서비스도 준비하고 있다"면서 "전문성과 신뢰성에 기반해 엑사원 유니벌스를 더욱 넓은 분야 확장할 것"이라고 밝혔다.

 

또한 LG AI연구원은 화학 및 바이오 분야의 발전을 앞당길 '엑사원 디스커버리'도 함께 선보였다.

 

엑사원 디스커버리는 세상에 없던 새로운 지식을 발견하는 플랫폼으로 가장 먼저 신소재·신물질·신약 관련 탐색에 적용하고 있다.  

 

LG AI연구원은 엑사원 디스커버리에 논문과 특허 등 전문 문헌의 텍스트뿐만 아니라 분자 구조, 수식, 차트, 테이블, 이미지 등 비(非)텍스트 정보까지 AI가 읽고 학습할 수 있는 형태로 데이터베이스화 하는 심층 문서 이해(DDU) 기술을 적용했다.

 

LG AI연구원은 친환경 배터리 개발에 활용할 수 있는 첨가제 소재의 개발을 주제로 엑사원 유니버스와 엑사원 디스커버리를 연계해 AI에 질문하며 ▲전문 문헌 검토 ▲분자 정보 추출 ▲소재 구조 설계(UMD) ▲소재 합성 예측(NCS) 등 후보 소재를 찾아내 합성 결과를 예측하는 과정을 시연했다.

 

특히 엑사원 디스커버리를 통해 1만회가 넘었던 합성 시행착오를 수십회로 줄이고, 연구개발 소요 시간은 40개월에서 5개월로 단축시킬 수 있을 것으로 전망했다.

 

LG AI연구원은 올해 4분기에 그룹 내 화학 및 바이오 분야 연구진들을 대상으로 엑사원 디스커버리 서비스를 제공할 예정이며, 이를 통해 신소재·신물질·신약 관련 연구개발에 혁신을 불러올 것으로 기대했다.

 

이밖에 선보인 '엑사원 아틀리에'는 인간에게 창의적 영감과 아이디어를 제공하기 위해 개발한 플랫폼이다. 저작권이 확보된 이미지-텍스트가 짝을 이룬 페어(Pair) 데이터 3.5억 장을 학습한 엑사원 2.0을 기반으로 이미지 생성과 이미지 이해에 특화된 기능을 제공한다.

 

LG AI연구원은 인간과 AI가 상호작용을 통해 디자인을 완성해가는 '디자인 싱킹 프로세스(Design Thinking Process)’를 '엑사원 아틀리에'에 접목하기 위해 미국 파슨스 디자인 스쿨과의 공동 연구개발을 이어가고 있다고 설명했다.

 

또한 지난달 셔터스톡(Shutterstock)과 함께 상용화한 '캡셔닝 AI' 기능도 엑사원 아틀리에에 탑재했다.

 

캡셔닝 AI는 처음 보는 이미지까지 자연어로 설명할 수 있으며, 이미지 검색에 활용할 수 있는 정보인 문장이나 키워드 등의 메타 데이터를 생성한다. 

 

LG AI연구원은 이날 제품 이미지를 보고 마케팅 문구 등을 생성하는 엑사원 아틀리에의 새로운 서비스를 시연했다.

 

올해 3분기에 그룹 내외부의 전문 디자이너를 대상으로 엑사원 아틀리에 서비스를 개시한다.

 

이날 행사에서 배경훈 LG AI연구원장은 "LG는 국내에서 유일하게 이중 언어 모델과 양방향 멀티모달 모델을 모두 상용화한 기업이며, 세상의 지식을 이해하고 발견하는 상위 1%의 전문가 AI를 개발하고 있다"고 말했다.

 

배 원장은 "국내외 파트너사와의 협력을 통해 실질적인 성공 사례를 만들어가며 '다른 생성형 AI들과는 차별화된 고객 가치'를 창출하는 글로벌 경쟁력을 갖춘 AI 컴퍼니로 발전해 나갈 것"이라고 강조했다.

 


【청년일보=이창현 기자】

관련기사




청년발언대

더보기


기자수첩

더보기

배너
배너
배너