[라스베이거스(미국)=디지털데일리 백지영기자] 최근 미국 MIT 미디어랩의 한 연구원은 얼굴인식 인공지능(AI)이 피부색이 어두워질수록 오차율이 높다는 점을 발견했다.
여러 기업의 AI 얼굴인식 시스템을 이용해 1000여여장의 사진을 분석한 결과 백인남성은 오차율이 1% 미만이었지만 흑인과 여성의 오차율은 이보다 훨씬 높았다. 결국 AI에 사용되는 데이터가 백인과 남성 중심의 ‘편향성(bias)’를 가진 셈이다.
20일(현지시간) 미국 라스베이거스에서 개최된 ‘IBM 씽크 2018’ 컨퍼런스에서 만난 롭 하이 IBM 왓슨 최고기술책임자(CTO)<사진>는 “기업용 AI에선 특히 이같은 편견은 매우 위험하다”며 “왓슨은 훈련 시 편견을 갖지 않는 균형잡힌 데이터 학습을 위해 많은 연구와 노력을 하고 있다”고 강조했다.
그에 따르면 IBM은 성별이나 인종 등으로부터 자유로운 대표성을 지닌 데이터 소스를 왓슨에 집어넣어 훈련시키고 이를 투명하게 공개한다.
다만 법률이나 의료 등 전문화된 집단의 편향성은 존중해야 한다고 말했다. 그는 “예를 들어 의사와 같이 그간의 경험으로 쌓인 지식은 ‘좋은 편향(good bias)’”이라며 “이 경우 데이터 양이 작더라도 규칙을 잘 세워 분석하면 된다”고 전했다.
루치르 퓨리 IBM 왓슨 최고아키텍트도 “오히려 너무 많은 데이터가 존재하고 생성되고 있는 상황에서 더 적은 데이터로 더 빠르고 정확하게 학습시킬 수 있는 능력이 중요해졌다”고 강조했다.
자연어 처리를 예로 들면 이미 4~5개의 샘플 데이터만으로도 95%의 정확도로 질문자의 의도를 파악할 수 있다는 것이 그의 설명이다. 현재 그는 1개의 샘플만으로도 90%의 정확도를 갖는 연구를 진행 중이라고 밝혔다.
퓨리 아키텍트는 “비즈니스에 적용돼 의사결정을 도와주는 AI라면 어떤 알고리즘으로 누가 훈련했는지 밝히고 결과물에 대해 사용자가 이해할 수 있는 근거를 갖고 설명해야 한다”고 힘줘 말했다.
<라스베이거스(미국)=백지영 기자>jyp@ddaily.co.kr
Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지
주파수 재할당대가, 정부가 부르는게 값? “산정방식 검토 필요”
2024-11-22 18:23:52유료방송 시장, 역성장 지속…케이블TV 사업자 중 SKB 유일 성장
2024-11-22 13:28:49[디즈니 쇼케이스] 판타스틱4, MCU 합류…미소 짓는 케빈 파이기
2024-11-22 12:56:31LGU+, 기업가치 제고 계획 발표…"AX 컴퍼니 구조 전환 가속화"
2024-11-22 10:18:34LG헬로 송구영 대표이사 재선임…사업 수익성 개선 '총력'
2024-11-21 18:33:01드림어스컴퍼니, 자본준비금 감액해 이익잉여금 500억원 전입
2024-11-22 14:57:25야놀자·인터파크트리플, 12월 ‘놀 유니버스’로 법인 통합
2024-11-22 14:57:10논란의 ‘퐁퐁남’ 공모전 탈락…네이버웹툰 공식 사과 “외부 자문위 마련할 것”
2024-11-22 14:23:57쏘카·네이버 모빌리티 동맹 순항…네이버로 유입된 쏘카 이용자 86%가 ‘신규’
2024-11-22 12:58:15