[라스베이거스(미국)=디지털데일리 백지영기자] 최근 미국 MIT 미디어랩의 한 연구원은 얼굴인식 인공지능(AI)이 피부색이 어두워질수록 오차율이 높다는 점을 발견했다.
여러 기업의 AI 얼굴인식 시스템을 이용해 1000여여장의 사진을 분석한 결과 백인남성은 오차율이 1% 미만이었지만 흑인과 여성의 오차율은 이보다 훨씬 높았다. 결국 AI에 사용되는 데이터가 백인과 남성 중심의 ‘편향성(bias)’를 가진 셈이다.
20일(현지시간) 미국 라스베이거스에서 개최된 ‘IBM 씽크 2018’ 컨퍼런스에서 만난 롭 하이 IBM 왓슨 최고기술책임자(CTO)<사진>는 “기업용 AI에선 특히 이같은 편견은 매우 위험하다”며 “왓슨은 훈련 시 편견을 갖지 않는 균형잡힌 데이터 학습을 위해 많은 연구와 노력을 하고 있다”고 강조했다.
그에 따르면 IBM은 성별이나 인종 등으로부터 자유로운 대표성을 지닌 데이터 소스를 왓슨에 집어넣어 훈련시키고 이를 투명하게 공개한다.
다만 법률이나 의료 등 전문화된 집단의 편향성은 존중해야 한다고 말했다. 그는 “예를 들어 의사와 같이 그간의 경험으로 쌓인 지식은 ‘좋은 편향(good bias)’”이라며 “이 경우 데이터 양이 작더라도 규칙을 잘 세워 분석하면 된다”고 전했다.
루치르 퓨리 IBM 왓슨 최고아키텍트도 “오히려 너무 많은 데이터가 존재하고 생성되고 있는 상황에서 더 적은 데이터로 더 빠르고 정확하게 학습시킬 수 있는 능력이 중요해졌다”고 강조했다.
자연어 처리를 예로 들면 이미 4~5개의 샘플 데이터만으로도 95%의 정확도로 질문자의 의도를 파악할 수 있다는 것이 그의 설명이다. 현재 그는 1개의 샘플만으로도 90%의 정확도를 갖는 연구를 진행 중이라고 밝혔다.
퓨리 아키텍트는 “비즈니스에 적용돼 의사결정을 도와주는 AI라면 어떤 알고리즘으로 누가 훈련했는지 밝히고 결과물에 대해 사용자가 이해할 수 있는 근거를 갖고 설명해야 한다”고 힘줘 말했다.
<라스베이거스(미국)=백지영 기자>jyp@ddaily.co.kr
Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지
“시청자 보호 위해 광고규제? 리터러시 능력 무시하는 것”
2024-11-10 12:28:04[DD 주간브리핑] 데이터센터 활성화 및 효율성 모색 자리 마련…역대 최대 지스타도 주목
2024-11-10 12:27:13[OTT레이더] 다시 만난 지창욱·비비…디즈니+, '강남 비-사이드'
2024-11-10 12:18:24LGU+, AX 본격화…"익시젠 경쟁력, B2B·B2C로 확대"(종합)
2024-11-08 16:55:58[LGU+컨콜] "영업익 감소, 수익성 확대·변동비 축소로 개선"
2024-11-08 16:17:15돈 되는 AI 만들자…걸음마 뗀 네이버·카카오, 내년 달린다
2024-11-10 16:12:44[넥스트 스테이지] ① 글로벌 도약 새 출발, 다양성으로 채운 '20살' 지스타
2024-11-10 12:19:01“징크스가 돌아왔다”…신세계百, 넷플릭스 ‘아케인 시즌2’ 팝업 개최
2024-11-10 12:17:03컴투스 송병준 의장, ‘SWC2024’ 월드 파이널 현장 참석
2024-11-09 21:25:27‘SWC2024’ 월드 파이널, 일본 도쿄서 성황리 개막… 올해의 챔피언 가린다
2024-11-09 20:05:01‘니케’ 연이은 역주행… 시프트업, 오프라인 이벤트로 유저 접점 확대
2024-11-08 18:32:15