통합 검색어 입력폼

AI의 인종차별 논란! 과연 그 진실은?

조회수 2020. 7. 16. 11:47 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

얼굴인식 프로그램이 무엇인지 아시나요? 영상, 사진 등의 이미지에서 특정 인물을 판별해내는 기술이에요. 쇼핑몰에서 물건을 들고 나오기만 하면 간편 결제가 되고 공항에서 자동으로 신원 조회도 할 수 있죠. 그런데 이처럼 편리한 최첨단 기술을 IBM, 아마존과 같은 세계 기업이 더 이상 개발하지 않겠다고 선언했어요. 인공지능의 발달로 가장 주목받는 기술이지만 사용처에 따라 가장 위험할 수도 있다는 평가가 있기 때문이에요. 자세한 내용을 함께 알아볼까요?

공감 누리집 원문 기사 보러 가기


▶얼굴인식은 영상, 사진 등의 이미지에서 특정 인물을 판별해내는 기술이다. 이 기술을 이용하면 공항이나 공공기관 등에서 비밀번호 입력을 대신해 얼굴로 신원을 확인하는 일이 가능하다

6월 24일, 얼굴인식(또는 안면인식) 프로그램의 오류로 무고한 시민이 경찰에 체포된 최초의 사례가 보도됐습니다. 불운의 주인공은 42세의 미국인 로버트 줄리언-보차크 윌리엄스입니다. 


미국 디트로이트시 경찰은 한 상점에서 고가의 손목시계 다섯 개를 훔친 범인을 쫓고 있었습니다. 수사관은 보안카메라에 찍힌 범행 당시 영상 안의 흐릿한 범인 얼굴을 얼굴인식 소프트웨어에 입력해 용의자를 탐색했습니다. 컴퓨터 프로그램은 윌리엄스를 지목했습니다. 


경찰은 그의 집으로 들이닥쳐 아내와 두 딸이 지켜보는 앞에서 그의 손목에 수갑을 채웠습니다. 하지만 경찰이 유력한 증거로 든 얼굴인식 결과는 후에 잘못된 것으로 판명 났고, 결국 그에 대한 혐의는 벗겨졌다고 <뉴욕타임스>를 비롯한 미국 언론들은 보도했습니다.


얼굴인식은 영상, 사진 등의 이미지에서 특정 인물을 판별해내는 기술을 말합니다. 이 기술을 이용하면 공항이나 공공기관 등에서 오가는 이들의 신원을 자동화해서 확인하거나 비밀번호 입력을 대신해 얼굴로 보안 확인하는 일 등이 가능합니다. 


중국 일부 지역에선 현재 지하철을 탈 때 얼굴인식으로 간편 결제를 할 수 있다고 하네요. 탑승구에서 지갑을 꺼낼 필요조차 없이 얼굴만 보여주면 기계가 알아서 탑승료를 결제하는 겁니다. 얼굴인식은 인공지능의 발달로 주목받는 대표적인 분야이면서 ‘킬러 로봇’과 함께 잘못된 쓰임에 대해 가장 큰 우려를 사고 있는 분야이기도 합니다.


특정 인종 차별하도록 설계됐나

미국에서 얼굴인식을 우려하는 가장 큰 이유는 인종차별입니다. 인종차별은 미국이 건국 때부터 안고 있는 문제지만 최근 경찰의 과잉 진압으로 사망한 흑인 조지 플로이드와 그를 추모하는 항의 시위로 한층 뜨거워진 쟁점이기도 하죠. 


떤 얼굴인식 프로그램도 특정 인종을 차별하도록 설계됐다고 광고하진 않지만 실상 그렇게 작동하고 있다는 지적이 숱하게 제기됐습니다. 미국시민자유연합(ACLU)은 2018년 전자 상거래 기업 ‘아마존’이 제공하는 얼굴인식 프로그램이 국회의원의 얼굴을 범죄자로 착오하는 경우에 대해 실험했는데 백인 의원보다 흑인 의원을 더 자주 범죄자로 오인한다는 점을 발견했습니다. 


이번에 얼굴인식 프로그램의 오류로 억울하게 체포된 윌리엄스 역시 흑인입니다. 현재 얼굴인식 프로그램은 유색인종에 대한 판별에 더 많은 오류를 내는 기술적 한계가 있는데, 이를 범죄자 색출 같은 현실적 용도에 도입하는 순간 차별로 이어질 수밖에 없는 셈입니다.


최근 인종차별 반대 목소리가 들끓는 와중에 많은 기술 기업이 정부에 제공하던 얼굴인식 프로그램 계약을 중지하겠다고 밝히기도 했습니다. 아이비엠(IBM)은 더 이상 얼굴인식프로그램을 개발·연구하거나 판매하지 않겠다고 선언했고, 아마존도 우선 1년 동안 얼굴인식 프로그램을 제공하지 않겠다고 밝혔습니다. 마이크로소프트는 얼굴인식 기술을 적절히 규제하는 연방 법이 제정되기 전까지 경찰에 더는 해당 기술을 팔지 않겠다고 약속했습니다. 하지만 이런 거대 기업의 기술이 경찰이 아닌 다른 곳, 예컨대 정보기관에 제공되어 어떤 식으로 쓰이고 있을지에 대해서는 아직도 오리무중인 상태이긴 합니다.


미국의 우려가 인종차별에 초점이 맞춰져 있다면 중국, 러시아 등 전체주의 성격이 짙은 국가는 얼굴인식이 사회통제수단(빅브라더)으로 쓰일 우려가 큽니다. 세계 여러 언론은 중국이 위구르 지역의 독립운동 조직을 추적·감시하기 위해 이런 기술을 사용하고 있다고 비판합니다. 지하철을 탈 때도 쓸 정도로 중국 시민의 얼굴인식 기술 활용이나 허용도는 높은 편인데 이런 기술을 제공하는 기업의 데이터에 중국 정부가 손을 대고 있다는 것도 인권단체와 언론 등의 추정입니다.


미국국립표준기술연구소(NIST)는 세계의 다양한 언굴인식알고리즘이 얼마나 우수한지 순위를 내고 있는데 중국과 러시아 업체들이 상위에 대거 포진하고 있기도 합니다.


인공지능 무장하고 부활한 사이비 과학

미국 정보기술(IT) 매체 <와이어드> 보도에 따르면 5월 미국 해리스버그 대학교의 연구진이 ‘인종적인 편향 없는 80%의 정확도’로 어떤 사람이 범죄자가 될 가능성이 있는지 예측하는 얼굴인식 프로그램을 개발했다고 밝혔습니다. 


범죄를 예지하고, 실제 발생하기 전에 방지하는 상상의 기술을 소재로 한 영화 <마이너리티 리포트>가 떠오르기도 하는 내용입니다.


이에 1000명이 넘는 인공지능, 사회학, 역사학, 윤리학 분야 학자가 이런 연구에 대한 반대 성명을 발표했습니다. 이들은 연구진이 주장하는 바와 달리 범죄 예측 연구에 인종 편향이 없단 말이 성립할 수 없다고 했는데 “‘범죄성’이라는 것 자체가 인종적으로 편향된 개념”이기 때문이라고 지적했습니다. 범죄성은 어떤 인종이 우등하고 (죄를 쉽게 저지르는 성향이 있단 식으로) 열등한지를 보이고자 했던 20세기 우생학의 산물이라는 것이지요. 


얼굴인식 기술은 자칫하면 이런 사이비 과학을 인공지능이란 포장지만 씌워 21세기에 부활시키는 길을 열어줄 위험이 있는 것입니다.

©권오성_칼럼니스트



이 콘텐츠에 대해 어떻게 생각하시나요?