섬뜩한 알렉사...죽은 사람 손쉽게 복원하는 AI 기술, 과연 바람직 한가?

신제인 2022.07.07 17:09:19

[디지털데일리 신제인 기자] 아마존이 추진중인 목소리 복원 기술의 위험성이 수면 위로 떠올랐다. 사람의 마음을 보듬는 ‘인간성’을 악용하면, 오히려 더 큰 역효과를 낼 수 있다는 것이다. 

지난달 아마존은 미국 라스베이거스에서 열린 컨퍼런스 콜에서 특정 인물의 목소리를 그대로 복제해 재현해내는 알렉사의 새로운 기능을 공개했다. 

불과 1분 미만의 음성 샘플만 있으면 해당 기능을 이용할 수 있기 때문에, 세상을 떠난 이들의 목소리까지도 쉽게 복제가 가능한 것으로 전해졌다. 

이에 대해 로히트 프라사드 알렉사 수석부사장은 “알렉사에 인간적 속성을 더 부여했다”라면서, “코로나19로 사랑하는 가족을 잃은 이들이 가족에 대한 기억을 오래 지속할 수 있을 것”이라고 설명했다. 

다만 이 같은 기술은 윤리적, 법적 문제에 있어서 자유롭지 못하다는 평가를 받고 있다. 

실제로 온라인 보안업체 소셜프루프시큐리티의 레이철 토백 최고경영자(CEO)는 워싱턴포스트를 통해 "사이버 범죄자가 음성 샘플을 사용해 다른 사람 목소리를 복제해낸다면 이는 사기와 데이터 탈취, 계정 도용 등으로 이어질 수 있다"고 우려했다.

호주 커틴대학의 타마 리버 인터넷학 교수는 "죽은 사람의 데이터를 사용하는 것은 섬뜩하고 비윤리적"이라고 비판하며, 사망자의 개인정보 권한에 대한 허점도 함께 지적했다. 죽은 이의 목소리에 대한 소유권이 불분명하다는 이유다. 

앞서 우리나라에서는 죽은 아이를 VR로 되살리는 다큐 프로그램이 방영된 적 있었다. 당시에도 일각에서는 가족을 잃은 슬픔을 상업적 소재로 활용했다는 비난이 나왔다. 

최근에는 고인을 소재로 만드는 AI 콘텐츠가 더욱 늘어나고 있다. 폐암 투병으로 사망한 故이주일 씨의 금연광고 등이 그 사례다. 여기에는 ‘오랫만에 고인의 모습을 보아 반갑다’는 반응 외에도 ‘고인모독 아니냐’, ‘유가족의 허락은 받았느냐’, ‘죽은 사람은 이 상황을 알까’와 같은 지적의 목소리가 꾸준히 따르는 상황이다.