[디지털데일리 서정윤 기자] 거대언어모델(LLM)을 가진 기업들이 인공지능(AI) 윤리성과 신뢰성을 확보하기 위해 손을 잡았다. 챗GPT가 생성AI가 일상에 보편적으로 쓰이는 가운데 환각 현상과 혐오 표현 등이 문제가 됐다. LLM 기업들은 이를 정확하게 판단할 척도를 만들기 위해 협력하기로 했다.
24일 업계에 따르면 네이버와 카카오 엔터프라이즈, SK텔레콤, KT, LG AI연구원 등은 최근 컨소시엄을 꾸리고 한국지능정보사회진흥원(NIA)의 'LLM 신뢰성 벤치마크 데이터' 사업에 참여하기로 했다. 이번 사업은 AI 학습용 데이터 구축 지원사업의 일환으로, 초거대AI의 성능을 평가하는 내용을 담고 있다.
이번 과제에서 셀렉트스타와 스캐터랩은 초거대AI 학습을 위한 말뭉치 데이터와 해외 언어 원천의 말뭉치 데이터, 기존 산업 지능화 데이터 등을 구축한다. 이후 컨소시엄이 가지고 있는 LLM에 이를 학습시킨 후 답변 문장을 정교하게 평가한다. 사업을 통해 최종적으로 벤치마크 데이터셋이 만들어지면 컨소시엄은 이를 가지고 각 기업이 가진 모델의 성능을 측정한다.
컨소시엄에 참여한 업계 한 관계자는 "초거대AI 성능이 좋기는 하지만 환각 현상이 있을 수 있고 경우에 따라서는 혐오 발언을 하는 등의 문제가 있었다"며 "문제점을 완화하기 위해서는 다 함께 힘을 모아야 한다는 데 의견이 모아졌고, 데이터셋을 함께 구축하자는 취지에서 사업에 참여하게 됐다"고 말했다. 안전한 AI를 만들기 위해서는 안전한 데이터셋 구축이 선행돼야 한다는 설명이다.
다만 컨소시엄은 이번 사업이 과학기술정보통신부에서 현재 준비하고 있는 생성AI 관련 규제와는 관련이 없다고 일축했다. 컨소시엄에 참여한 업계 다른 관계자는 "만약 구축된 데이터셋으로 평가한 결과 일정 점수 이하의 기업들은 사업 참여를 막는다든지 등 규제하는 방식으로 사업이 이어지게 된다면 안 될 것 같아서 과기정통부에 의견을 말씀드렸고, 과기정통부도 동의한 상황"이라고 강조했다.
한편, 컨소시엄 참여 기업들은 한국정보통신기술협회(TTA) 산하 'AI 윤리정책 포럼'의 회원사다. 최근 챗GPT 등 생성AI가 보편화되며 과기정통부에서는 AI의 윤리성을 확보하기 위한 방안을 모색하고 있다.
Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지
SKT 해킹서 IMEI 포함된 서버 감염 확인…"유출 여부는 확인 안돼"
2025-05-19 11:09:50쇼핑엔티, 가정의 달 맞아 소외계층 지원 위한 바자회 개최
2025-05-19 10:44:04LGU+, 대학생 대상 ‘유쓰페스티벌’ 실시…안티딥보이스 체험장 마련
2025-05-19 09:40:55KT, 난청아동 위한 야구 체험행사…KT위즈파크 ‘드림투어’ 실시
2025-05-18 20:39:18SKT, 19일부터 취약계층 대상 해킹 대응조치 ‘찾아가는 서비스’ 실시
2025-05-18 20:38:58SKT “고객정보 유출 따른 피해 없다”…추가 악성코드 발견 여부엔 “곧 정부 발표있을 것”
2025-05-18 11:45:45넥슨, 신작 '빈딕투스' 6월 9일 글로벌 알파 테스트 시작
2025-05-19 11:44:51'퇴마록’이 들린다…밀리의 서재, 오디오북 국내 최초 공개
2025-05-19 11:34:55'밤샘 틱톡 금지령'…밤 10시 넘으면 청소년 피드에 명상 영상 뜬다
2025-05-19 11:20:59[현장] "잃어버린 4년 만들거야?"…네이버 노조, 피켓 들고 나선 이유는
2025-05-19 10:19:25카카오톡 선물하기, '나에게 선물' 탭 오픈…'셀프 선물' 트렌드 반영
2025-05-19 10:10:23