실시간
뉴스

보안

[취재수첩] 금융권 AI 도입, 뜨거운 관심만큼 무거운 책임과 용기 필요해

28일 서울 중구 동대문디자인플라자(DDP)에서 열린 '코리아핀테크위크 2024' 현장. 한국신용정보원이 '금융산업의 특이점: AI가 바꾸는 금융 생태계'를 주제로 발표하고 있다.

[디지털데일리 김보민기자] 생성형 인공지능(AI). 약 2년 전만 해도 신비롭기만 했던 이 기술은 이제 일상에서 흔히 볼 수 있는 단어가 됐다. 챗GPT와 같은 대화형 AI는 각종 서비스에 적용되고 있고, 사용자는 더 똑똑하고 새로운 일을 해낼 수 있는 생성형 AI를 기대하기 시작했다.

반면 금융권 분위기는 달랐다. 금융 서비스는 한 번 중단되면 개인과 기업 재산에 피해를 줄 수 있기 때문에, 그간 생성형 AI 적용이 규제로 제한돼 왔다. 제2의, 혹은 제3의 챗GPT를 이야기하는 산업군이 늘어난 것과 달리 금융권이 마주한 문턱은 그만큼 높을 수밖에 없었다.

그러던 중 판도를 뒤바꿀 만한 발표가 나왔다. 금융당국이 이달 '금융분야 망분리 개선 로드맵'이라는 이름으로 샌드박스를 통해 개선이 시급한 과제를 즉시 추진하겠다는 의지를 드러낸 것이다. 여기에는 클라우드 기반 서비스형소프트웨어(SaaS) 활용 범위를 확대한다는 내용뿐만 아니라, 생성형 AI 활용을 허용하겠다는 내용이 담겼다.

이후 금융기관과 기업, 그리고 금융권을 주요 고객으로 사업을 운영하고 있는 정보기술(IT) 업계에서도 고무적인 분위기가 이어지고 있다. 금융위원회가 주최한 코리아핀테크위크는 업계 특화 AI에 대한 정보를 듣기 위해 현장을 찾은 방문객으로 인산인해를 이뤘다. 그전에 금융감독원에서 열린 업무 설명회도 마찬가지였다. 문을 열기 무섭게 전 좌석이 꽉 찼고, 오픈런(영업시간 전부터 줄을 서는 행위)에 실패한 이들은 대강당 바닥에 앉아 발표를 들었다. 설명회 중간에 나갈 수 없을 정도로 모든 통로를 가득 메운 모습이었다.

다만 막연한 기대는 배탈을 일으킬 수 있다는 점을 간과해서는 안 된다. 생성형 AI에게 중요 업무를 모두 이관할 수 없듯, 철저한 보안 대책을 세워 위협 요인에 대응하는 자세가 필요하다. 생성형 AI의 가능성이 무궁무진한 것처럼, 기술 발전에 의한 위협 또한 예상할 수 없는 범위로 커질 수 있기 때문이다.

이번 로드맵에 생성형 AI를 활용하기 위해 규제 샌드박스 지정이 선행돼야 하고, 이 과정에서 일반 요건뿐만 아니라 보안 대책을 비롯한 부가 요건을 충족하도록 조건을 단 이유도 같은 선상에서 이해할 수 있다. 다만 아직까지 대표 금융기관을 제외한 곳에서는 "보안대책을 어떻게 충족할 수 있을지 의문"이라는 이야기가 나온다. 신뢰성, 공정성, 투명성 등 여러 영역에서 보안 대책을 세우기 까다로운 탓이다. 금융감독원 설명회 현장에서도 "결국 AI를 쓰고 싶으면 보안대책을 내놓으라는 것인데, 말처럼 쉽지 않다"는 목소리가 나왔다.

최근 만난 한 금융권 CISO는 이번 망분리 완화대책이 바로 금융권의 AI활용 활성화로 이어지긴 부족하다는 의견도 냈다. 그는 "지금의 AI는 결국 거대언어모델(LLM)을 적용해보자는 것인데 여기에 개인정보는 안되고 또, 다른 민감정보는 여전히 안되는 등 한계가 있다"고 지적하기도 했다.

결국 관건은 보안에 대한 자세다. 완벽한 보안은 없다. 생성형 AI를 활용한 '초개인화 금융 서비스'에 대해 업계가 기대감을 표하기 전, 보안에 대한 고민이 선행돼야 하는 이유다. 2013년 금융사 대규모 전산망 마비를 계기로 아예 침입의 여지를 막아버리자는 다소 극단적인 망분리 제도가 도입됐던 때를 반복하지 않기 위해서는 고민이 필요하다.

금융당국은 생성형 AI를 허용하는 1단계 과제를 추진하고, 연내 보안대책을 담은 가이드라인도 공개할 전망이다. 10여년간 이어진 '갈라파고스 규제'로 회귀하지 않기 위해서 금융을 비롯한 관련 업계의 치열한 전략이 필요한 때다.

특히 이러한 고민과 전략에는 용기도 필요해 보인다. 금융당국이 금융권 자율의 보안을 권고하되 책임을 강하게 지우는 상황에서 여전히 금융권은 눈치를 보는 것 같다. 선제적으로 안전하지만 과감한 전략 도입을 검토할 필요성도 있어 보인다.

디지털데일리 네이버 메인추가
x