얼굴인식 알고리즘에 편견이 들어간다? "백인남성 잘 인식하는데 흑인여성은.."
구글 포토 앱에는 '자동 분류' 기능이 있습니다.
이미지를 자동으로 인식해 분류하기 좋게 태그를 달아주는 기능이죠. 편리한 기능이지만 지난 2015년에는 황당한 사건이 벌어졌습니다.
구글 포토가 흑인의 사진을 '고릴라'로 분류한 겁니다.
구글은 즉각 사과하고 시스템 개선을 약속했습니다. 하지만 이 사건 이후 알고리즘도 편향될 수 있다는 문제의식이 공감대를 얻게 되었죠.
MIT미디어랩 조이 부오라뮈니 연구원과
스탠포드대학 연구원 팀닛 게브루는
기술 알고리즘에 내재된 편견을 찾아내는
‘젠더 쉐이드‘ 프로젝트의 일환으로
IBM, 마이크로소프트, 페이스++ 세 곳의 얼굴 분석 프로그램을 분석했습니다.
연구원들은 전문가 도움을 받아
아프리카 3개국, 유럽 3개국에서
다른 성별과 피부 유형을 가진 1270명의 대상자를
선정했고 이들의 이미지로
얼굴인식 프로그램의 벤치마크를 제작했습니다.
IBM, 마이크로소프트, 페이스++ 모두 백인 남성의 얼굴인식률은 각 99.7%, 100%, 99.2%로 오차 범위가 1% 미만에 불과했으나 흑인 여성의 얼굴인식률은 65.3%, 79.2%, 65.5%로 큰 차이를 보였습니다.
데이터 구성에 따라 알고리즘 달라질 수 있어
미국 국립표준기술연구소(NIST)가 2011년 발표한 내용에 따르면 한국, 중국 및 일본에서 개발된 얼굴인식 알고리즘은 백인보다 아시아인에 대한 인식률이 더 높았습니다.
미국 시사지 <애틀랜틱>은 “알고리즘이 생성되는 조건, 특히 개발팀의 인종 구성과 테스트에 쓰이는 사진의 데이터베이스가 (얼굴인식) 결과의 정확성에 영향을 줄 수 있음을 나타낸다”고 진단했죠.
조이 부오라뮈니 연구원은 “자동화 시스템은 중립적이지 않다. 인공지능 (시스템)을 형성할 힘을 가지고 있는 이들의 우선순위, 선호도 및 편견을 반영한다”고 지적했습니다. <뉴욕타임스>는 “이러한 서로 다른 결과는 현실 세계의 편견이 얼굴인식 컴퓨터 시스템의 인공지능에 어떻게 스며드는지 보여준다”고 말했습니다.
얼굴 인식으로 '식별'하는 건 괜찮지만 이렇게 '분류'를 하는 경우에는 아마 많은 문제가 발생할 수 있을 것 같습니다. 또 외양만으로 정말 성별을 구분할 수 있는지도 궁금하고요. 그리고 이 프로그램에서 동양인의 인식률은 어느 정도일지, 이것 역시 문득 궁금하지 않으신가요?