실시간
뉴스

e비즈*솔루션

"AI로 신약개발도 뚝딱"…LG, 초거대 멀티모달 '엑사원 2.0' 공개

[ⓒ LG AI연구원 홈페이지 캡처]
[ⓒ LG AI연구원 홈페이지 캡처]

-엑사원 유니버스·디스커버리·아틀리에 등 3개 플랫폼 소개

-4500만건 전문 문헌 및 3.5억장 이미지 학습…성능↑·비용↓

[디지털데일리 김보민 기자] LG AI연구원이 전문성이 요구되는 분야의 발전을 앞당길 초거대 멀티모달 인공지능(AI) '엑사원 2.0'을 공개했다.

19일 LG AI연구원은 서울 강서구 마곡 LG사이언스파크 컨버전스홀에서 'LG AI 토크 콘서트 2023'를 열고, 지난 2021년 첫 선을 보인 엑사원의 진화된 모습을 소개했다.

엑사원 2.0은 LG AI연구원이 파트너십을 통해 확보한 특허와 논문 등 약 4500만건의 전문 문헌과, 3억5000만장의 이미지를 학습했다.

연구원 측은 "현존하는 전문 지식 데이터의 상당수가 영어로 되어 있는 점을 고려해 '엑사원 2.0'을 한국어와 영어를 동시에 이해하고 답변할 수 있는 이중 언어 모델로 개발했다"며 "학습 데이터 양도 기존 모델 대비 4배 이상 늘려 성능을 높였다"라고 설명했다.

엑사원 2.0의 언어 모델은 기존 모델과 동일한 성능을 유지하면서도 추론 처리 시간을 25% 단축하고, 메모리 사용량을 70% 줄여 비용을 약 78% 절감했다.

플랫폼은 ▲ 유니버스(Universe) ▲ 디스커버리(Discovery) ▲ 아틀리에(Atelier) 등 3가지로 나뉜다.

엑사원 유니버스는 질의응답과 대화, 텍스트 분류 및 요약, 키워드 추출 및 생성, 번역 등에 특화된 전문가용 대화형 AI 플랫폼이다.

다른 대화형 AI와 달리 사전 학습한 데이터는 물론, 각 도메인별 최신 전문 데이터까지 포함해 근거를 찾아내며 추론한 답변을 생성할 수 있는 게 특징이다.

질문에 대한 답변 뿐만 아니라, 좌측과 우측에 각각 질문과의 연관성이 높은 전문 문헌과 AI가 답변하는 과정에서 활용한 단락을 확인할 수도 있다.

엑사원 디스커버리는 신소재·신물질·신약 등 화학과 바이오 분야의 심층 문서 이해를 돕는 플랫폼이다.

전문 문헌의 텍스트 뿐만 아니라, 분자 구조·수식·차트·이미지 등 비텍스트 정보를 AI가 읽고 학습하는 방식이다. 해당 플랫폼을 통해 후보 소재를 찾아내 합성 결과를 예측할 수도 있다.

LG AI연구원은 엑사원 디스커버리를 통해 1만회가 넘었던 합성 시행착오를 줄이고, 연구 개발 소요 시간 또한 40개월에서 5개월로 단축시킬 수 있을 것으로 예상했다.

엑사원 아틀리에는 이미지를 언어로 표현하고, 반대로 언어를 이미지로 시각화할 수 있는 멀티모달 플랫폼이다.

저작권이 확보된 이미지와 텍스트가 짝을 이룬 페어 데이터 3억5000만장을 학습해, 엑사원 2.0를 기반으로 이미지 생성과 이해에 특화된 기능을 제공하는 게 특징이다.

LG AI 연구원은 미국 파슨스 디자인스쿨과의 공동 연구개발을 이어가고 있고, 지난 6월 셔터스톡과 함께 상용화한 '캡셔닝 AI' 기능도 엑사원 아틀리에에 탑재했다고 설명했다.

배경훈 LG AI연구원장은 "LG는 세상의 지식을 이해하고 발견하는 상위 1%의 전문가 AI를 개발하고 있다"라며 "다른 생성형 AI와 차별화된 고객 가치를 창출하고 글로벌 경쟁력을 갖춘 AI 컴퍼니(기업)로 발전해 나갈 것"이라고 자신했다.

한편 LG AI연구원은 이달 31일부터 LG그룹 내 AI 연구자와 협력 대학을 대상으로 엑사원 유니버스의 AI·머신러닝 분야 서비스를 개시할 예정이다. 9월에는 AI를 연구하는 임직원을 대상으로 정식 서비스를 선보인다.

올해 3분기에는 그룹 내외부 전문 디자이너를 대상으로 엑사원 아틀리에 서비스를 시작할 계획이다.

이어 4분기에는 그룹 내 화학 및 바이오 분야 연구진들을 대상으로 엑사원 디스커버리 서비스를 제공할 방침이다.

디지털데일리 네이버 메인추가
x