[디지털데일리 홍하나기자] “대부분 하드웨어(HW), 소프트웨어(SW) 벤더들은 각 사에 최적화된 인공지능(AI) 모델을 만들어 제품에 탑재하고 있습니다. 하지만 이들은 AI 기술의 성능만 추구할 뿐 보안에는 관심이 없습니다. 프레임워크를 통해 보안 문제를 해결해야 합니다”
강 리 조지아대학교 교수는 지난 7일 서울 양재동 더케이호텔에서 열린 ‘제13회 국제해킹보안컨퍼런스 POC’에서 이같이 밝히며, AI 기술을 개발하는 IT업체들에 보안에 대한 관심을 촉구했다.
강 리 교수는 “퀄컴, 삼성, 화웨이 모두 AI 칩이 내장된 스마트폰을 만든다”며 “각 사의 디바이스에 최적화된 AI 모델을 개발해 탑재하고 있다”고 설명했다.
대부분의 벤더들은 각 사가 만든 로컬 AI 모델을 통해 데이터 처리를 하고 있다. 데이터를 수집해 클라우드로 보내고, 다시 결과를 얻기까지 상당한 시간이 소요되기 때문이다. 반대로 로컬 프로세싱을 할 경우 대역폭을 줄여 데이터를 빠르게 처리할 수 있는 이점이 있다.
하지만 보안상 문제가 발생할 수 있다. AI 모델은 인풋 데이터와 아웃풋 데이터를 포함한다. 해커가 밴더의 AI모델을 공격해 악용할 경우 데이터를 탈취할 수 있다. 또 인풋 데이터와 아웃풋 데이터의 위치를 바꿔 결과를 조작하는 등 생각치 못한 여러 문제를 야기할 수 있다.
해커의 공격은 다른 AI 서비스에도 영향을 미칠 수 있다. 벤더는 로컬 프로세싱을 통해 AI 기술을 구현하기 때문에, 스마트폰에 설치된 모든 AI 앱이나 서비스가 동공격을 받을 수 있다. 한 번 뚫리면 스마트폰의 AI 서비스를 신뢰할 수 없게 된다.
강 리 교수는 “업체들은 이를 방지하기 위해 규칙을 만들었으나, 업체들 간 겹치는 것은 없었다”며 “현재 벤더들이 보안을 잘 알지 못해 각 사만의 방식으로 대처하고 있다. 이 경우 문제를 일으킬 수 있는 파라미터를 포함할 수 있다”고 우려했다.
결국 중요한 것은 ‘표준화’다. 딥러닝 업계에서는 공통 프레임워크 구현을 추진하며 보안을 강화하기 위한 방안을 궁리하고 있다. 반대로 HW, SW 벤더들은 AI의 성능에만 집중해, 보안을 신경쓰지 않고 있다는 지적이다.
강 리 교수는 “아직 AI는 초기단계이기 때문에 많은 벤더들이 성능만 추구하고 있다”며 “벤더들의 AI 모델에 대한 표준화가 추진되길 바란다”고 밝혔다.