[디지털데일리 백지영기자] 개인정보보호위원회(이하 개인정보위)가 오는 6월 데이터 수집과 학습, 응용 서비스로 이어지는 인공지능(AI) 수명주기에 따른 데이터 안전 활용 정책방향을 수립한다.
최근 챗GPT와 같은 생성AI가 급속도로 발전하면서 불법적인 데이터 수집 등 개인정보침해 위협이 높아지고 있는 상황이다. 이에 개인정보위 역시 챗GPT의 개발사인 오픈AI와 소통 등을 통해 AI 전 과정에서 지켜야 할 보호 원칙과 데이터 처리기준을 제시하겠다는 입장을 밝혀왔다.
고학수 개인정보보호위원회 위원장은 24일 오후 정부서울청사에서 기자간담회를 열고 “AI 시대에 개인정보위의 역할은 더 확대될 것”이라며 “특히 해외에서 개발된 기술이 국내에서도 거의 시차 없이 소개되는 만큼, AI 개발사 입장에서도 데이터 관련 규제 감독기관과의 커뮤니케이션이 중요해지고 있다”고 말했다.
실제 개인정보위는 최근 챗GPT 개발사인 오픈AI와 대화 창구를 마련해 소통을 이어오고 있다. 최근 개인정보위는 챗GPT로 인한 우리 국민의 개인정보 피해가 발생했는지 여부를 파악해 보기 위해 오픈AI와 접촉, 최근까지 챗GPT를 이용한 한국인 이용자는 220만명이라는 조사 결과도 공유한 바 있다.
고 위원장은 최근 발생한 챗GPT 플러스(유료버전) 결제자 정보 유출사고에 대해선 “현재 한국과 관련한 이슈가 있는지 상황을 파악하고 있는 중”이라며 “유럽에 있는 개인정보 감독기관과 좀 더 적극적인 조율을 할 가능성이 있다”고 말했다.
현재 유럽연합(EU)의 경우, 유럽데이터보호위원회(EDPB) 등이 챗GPT 태스크포스를 구성하고 이에 대응하고 있다. 또 우리나라를 비롯, OECD(경제협력개발기구) 국가 등을 중심으로 AI 규제 법안 논의가 이어지는 가운데 개인정보위도 신뢰할 수 있는 AI 생태계 조성을 위해 데이터 안전 활용 정책 방향을 상반기 내 수립한다.
개인정보위는 지난 3월 개정된 개인정보보호법 공포 이후 의료 스타트업이나 온라인 플랫폼 사업자 등과 간담회를 추진해 오고 있는데, 이 과정에서 AI 데이터와 사용자 생성 데이터 활용 기준, 영상 이미지, 비정형 데이터 처리 기준 등을 구체적으로 제시해 달라는 업계 요구가 있었다고 설명했다.
이에 데이터 수집 과정에서의 공개 정보 및 사용자 생성 데이터 활용 기준과 데이터 학습과정에서의 비정형 데이터 가명처리 기준, 응용서비스(앱) 단계에선 AI 개인정보 보호 기술개발을 통한 자동화된 결정 대응권 도입 등을 기반으로 한 정책 방향을 준비 중이다.
이를 위해 오는 6월 말까지 1차적으로 이를 공표하고 추후 이를 구체화해 보완해 나갈 방침이다.
특히 현재 정부가 추진 중인 디지털플랫폼정부 등 비롯한 디지털 혁신 과정에서 공공부문의 개인정보 보호강화가 중요하다고 강조했다. 최근 공공기관이 운영하는 시스템에서 유출 사고로 인해 중대한 2차 피해가 발생하는 사례들이 있었던 만큼 보다 철저한 기술적, 인적, 관리적인 조치가 필요하다고 강조했다.