실시간
뉴스

e비즈*솔루션

“AI도 언제든 오류... 어디까지 허용할지 사회적 합의 필요”

[디지털데일리 이종현기자] “적정한, 수용 가능한(Acceptable) 인공지능의 구현을 생각할 때입니다.”(임용 서울대 법학전문대학원 교수, SAPI 공동 디렉터)

19일 네이버와 서울대학교 인공지능 정책 이니셔티브(SAPI)는 함께 마련한 인공지능(AI) 윤리 온라인 세미나(웨비나)에서 발표를 맡은 임용 서울대학교 법학전문대학원 교수는 자신이 맡은 발표 세션이서 이같이 밝혔다. AI와 관련된 오류는 필연인 만큼, 오류에 어떻게 대응할 것인지 고민해야 한다는 것이 그의 주장이다.

‘AI 윤리: 원칙에서 규범으로’를 주제로 발표한 임용 교수는 최근 발생한 AI 챗봇 서비스 ‘이루다’ 사태로 AI윤리에 대한 경각심이 높아졌다고 말했다. 설문에 따르면 이루다가 문제점을 보완한 뒤 돌아오더라도 이용하지 않을 것이라는 응답이 55.8%로 더 우세한 것으로 나타났다. “시장의 신뢰를 저버린 상황”이라는 것이 임 교수의 진단이다.

임 교수는 AI 분야와 의료 분야의 차이에 대해 소개했다. 의료 분야는 공통의 목적, 의사의 선량한 관리자로서의 의무, 오랫동안 지켜져 온 규범 및 축적된 경험, 전문가 집단 내의 견제·감독·퇴출 등으로 원리주의(Principlism) 기반의 접근이 잘 작동하는데, AI 분야는 그렇지 못하다는 비판이다.

그는 AI 윤리에 대한 논의가 현실과 연결돼야 한다고도 강조했다. 미국에서 재범 가능성을 예측하는 AI 알고리즘 ‘컴퍼스(COMPAS)’의 일화를 언급하며, 현실에 부합하지 않는 AI 활용은 심각한 부작용을 낳을 수 있다고 경고했다.

현장에서 실천하는 AI 윤리가 필요하다는 것이 임 교수의 생각이다. AI 거버넌스의 목표는 신뢰를 확보하는 것이고, 그 신뢰는 ‘지속적 견제를 통해 검증된’ 신뢰여야 한다는 것이다.

임 교수는 “AI 윤리를 얘기하다 보면 AI 기술 자체를 두고 얘기하는 경우가 많다. 그러나 AI 윤리 거버넌스는 도덕적인 AI 기술 개발이 목표가 아니다. 신뢰 가능한 AI 기반의 사회 시스템 조성이라는 점을 잊어서는 안 된다”며 “또 문제가 생길 경우 개발자 개인의 일탈로 치부하는 것이 아니라 조직 전체의 윤리를 생각해야 한다”고 말했다.

이어서 그는 “AI가 의사결정의 기반이 될 경우 목적 달성이라는 기술적 완결성만으로는 신뢰를 확보하기 어렵다. 사회적인 가치의 적정한 고려와 그에 대한 이용자, 시장의 인지가 필요하다”며 AI 윤리도 프로세스의 관점에서 접근할 필요가 있다고 부연했다.

임 교수는 AI와 관련된 오류는 필연이라는 말했다. 숱한 AI 관련 문제가 발생하고 있는 상황에서 이것에 어떻게 해결하고 대응하는지가 중요한 과제라는 설명이다. 완벽할 수 없는 만큼 오류를 허용할지 여부와 허용할 오류율에 대한 합의가 필요하다고 강조했다.

한편 이날 임 교수에 이어 발표를 맡은 송대섭 네이버 정책연구실 이사는 네이버가 발표한 AI 윤리 준칙을 소개했다.

SAPI와 협력해 초안을 만든 준칙은 ▲사람을 위한 AI 개발 ▲다양성의 존중 ▲합리적인 설명과 편리성의 조화 ▲안전을 고려한 서비스의 설계 ▲프라이버시 보호와 정보보안 등 5개 조항을 골자로 한다. 사내 검토와 간담회 등 의견 수렴 절차를 진행했다.

네이버의 AI 윤리 준칙에는 ‘네이버는 첨단의 AI 기술을 누구나 쉽고 편리하게 활용할 수 있는 일상의 도구로 만들겠다’는 내용이 포함됐다. AI는 사람을 위한 일상의 도구이며 인간 중심의 가치를 최우선한다는 것이 네이버의 방침이라는 설명이다.

송 이사는 네이버가 마련한 AI 윤리 준칙 설계 및 실천에서 얻은 경험, 노하우를 스타트업과 공유하겠다고 밝혔다.

그는 “AI에 대한 사회적 요구를 어떻게 충족할 것인가에 대한 고민이 많았다. AI 윤리 준칙이 구호에 그치지 않고 실천될 수 있도록 노력하겠다”고 피력했다.

다음은 네이버가 발표한 AI 윤리 준칙 전문이다.

네이버 AI 윤리 준칙

네이버는 첨단의 AI 기술을 누구나 쉽고 편리하게 활용할 수 있는 일상의 도구로 만들겠습니다. 사용자에게 새로운 연결의 경험을 선보이는 도전을 멈추지 않음으로써 다양한 기회와 가능성을 열어 나가겠습니다.

이를 위해 네이버의 모든 구성원은 AI 개발과 이용에 있어 아래와 같은 윤리 원칙을 준수하겠습니다.

1. 사람을 위한 AI 개발
네이버가 개발하고 이용하는 AI는 사람을 위한 일상의 도구입니다. 네이버는 AI의 개발과 이용에 있어 인간 중심의 가치를 최우선으로 삼겠습니다.

네이버는 사용자의 일상에 편리함을 더하기 위해 기술을 개발해왔고, AI 역시 일상의 도구로 활용될 수 있도록 발전시켜 나가고 있습니다. 네이버는 AI가 우리의 삶을 편리하게 만들어줄 수 있는 기술이지만, 세상의 다른 모든 것처럼 완벽할 수 없다는 점을 인식하고 있습니다. 네이버는 AI가 사람을 위한 일상의 도구가 될 수 있도록, 지속적으로 살펴보며 개선해 나가겠습니다.

2. 다양성의 존중
네이버는 다양성의 가치를 고려하여 AI가 사용자를 포함한 모든 사람에게 부당한 차별을 하지 않도록 개발하고 이용하겠습니다.

네이버는 다양성을 통해 연결이 더 큰 의미를 가질 수 있도록 기술과 서비스를 구현해 왔습니다. 그 과정에서 사용자에게 다채로운 기회와 가능성을 열어왔고, 합리적 기준 없는 부당한 차별이 발생하지 않도록 노력해 왔습니다. 네이버는 AI 서비스에서도 부당한 차별을 방지하고 다양한 가치가 공존하는 경험과 기회를 제공해 나가겠습니다.

3. 합리적인 설명과 편리성의 조화
네이버는 누구나 편리하게 AI를 활용하도록 도우면서, 일상에서 AI의 관여가 있는 경우 사용자에게 그에 대한 합리적인 설명을 하기 위한 책무를 다하겠습니다. 네이버는 AI에 관한 합리적인 설명의 방식과 수준이 다양할 수 있다는 점을 고려해, 이를 구체적으로 실현하기 위하여 노력하겠습니다.

네이버의 AI는 기술을 위한 기술이 아니며, 기술적 지식이 없이도 누구나 손쉽게 활용할 수 있는 도구가 될 것입니다. 네이버는 서비스의 편리함을 추구하면서, 사용자의 요구가 있거나 필요한 경우에는 AI 서비스에 대해 쉽게 이해할 수 있도록 사용자의 눈높이에 맞춰 설명하겠습니다.

4. 안전을 고려한 서비스 설계
네이버는 안전에 유의하여, 서비스의 전 과정에서 사람에게 유해한 영향을 미치지 않는 AI 서비스를 설계하겠습니다.

사람을 위한 일상의 도구인 AI가 사람의 생명과 신체를 위협하는 상황이 발생하지 않도록, 네이버는 전 과정에서 안전을 고려해 서비스를 설계하고, 테스트를 거치며, 배포 이후에도 안전성에 대해 지속적으로 살펴보겠습니다.

5. 프라이버시 보호와 정보 보안
네이버는 AI를 개발하고 이용하는 과정에서 개인정보 보호에 대한 법적 책임과 의무를 넘어 사용자의 프라이버시가 보호될 수 있도록 노력하겠습니다. 또한 개발 단계를 포함해 AI 서비스의 전 과정에서 정보 보안을 고려한 설계를 적용하겠습니다.

네이버는 개인정보 활용에 있어 법적 책임과 의무를 다하는 것을 넘어 개인의 프라이버시도 적극적으로 보호하고 있습니다. 또한 사용자가 서비스를 활용하면서 정보 보안을 우려하게 되는 상황을 원천적으로 차단할 수 있도록, 서비스 전 과정에서 정보 보안을 고려한 설계를 적용하고 있습니다. AI 서비스에 있어서도 마찬가지로, 사용자가 프라이버시와 정보 보안을 걱정하지 않고 AI 서비스를 자유롭게 활용해 삶에 편리함을 더할 수 있도록 노력하겠습니다.

<이종현 기자>bell@ddaily.co.kr
디지털데일리 네이버 메인추가
x