인공지능, '차별 레이더' 되지 않으려면?

조회수 2017. 9. 21. 10:50 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

이러다가 곧 터미네이터의 '스카이넷'이 탄생할 지도 모른다.

인공지능은 이제 인간을 어떤 기준에 맞춰 평가할 수 있는 수준까지 발전했습니다. 인간의 성향, 특징을 비롯한 여러 데이터를 기록해 이를 기반으로 재범주화 하는 작업이 가능해진 것이죠. 특히 최근에는 인공지능으로 동성애자 여부를 판별하는 머신러닝 알고리즘이 논쟁의 중심에 선 바 있습니다. <와이어드>는 해당 사례에서 출발해 인간 사회가 가져야 할 윤리 규정의 필요성을 지적했습니다.


동성애자를 판별하는 인공지능 연구를 진행한 연구자들의 목적은 성적소수자들을 보호하기 위한 차원이었습니다. 그들이 사생활에 대해 위협받고, 안정성을 보호받지 못하는 지점을 발견해내고, 대중들에게 경고하기 위한 의도였죠. 하지만 LGBT 지지 단체로부터 “정부가 동성애자들을 확인하고 박해하기 위해 쓰레기 같은 과학을 이용했다”라는 비난을 받자 해당 연구는 사회적 논란이 됐습니다. 미국 심리학회는 해당 연구 결과에 대해 윤리적인 검토를 진행 중이라고 밝혔습니다.

출처: People radar vector clipart. Graphic by Raker Tooth

하지만 이같은 논쟁은 단순히 하나의 연구에서 발생한 문제점이 아닙니다. 앞으로 인공지능 연구에서 계속해서 발생할 수 있는 큰 문제점을 내포하고 있습니다. 현대사회의 많은 사회과학자들은 인공지능을 사용해 다양한 사회적 문제를 해결하고자 합니다. 하지만 연구 과정에서 발생할 수 있는 피해를 방지하기 위한 명확한 윤리적 지침이 없는 상태입니다. 미국 윤리학자 제이크 멧칼프는 “이것들을 규정할 수 있는 일관된 표준이나 투명한 검토 방법이 없다”고 지적했습니다.

현재 미국에서는 정부가 자금을 지원한 연구에 한해 법적으로 생명윤리위원회(Institutional Review Board, IRB)의 승인을 받아야 합니다. 앞서 말한 동성애자 판별 연구도 마찬가지였습니다. 연구자들이 속해있던 스탠퍼드대학교 윤리위원회는 당시에 해당 연구를 승인했습니다. 하지만 당시 위원회가 적용한 규정은 40년 전에 만들어진 것이었죠. 그들의 규정은 사회과학자들이 연구대상자와 면담을 실시하거나, 연구자의 혈액을 채취하는 등 실제 인간과 상호작용하며 연구하던 시절에 적용하던 것입니다.

출처: WIRED

여기서 발생하는 허점은 실제 간과 전혀 상호작용을 하지 않는 상태에서 데이터를 기반으로 진행하는 연구에 대해 적절한 평가를 할 수 없다는 것에 있습니다. 멧칼프는 “이것은 데이터 과학과 같은 연구 방법을 전혀 고려하지 않았다”며 “우리가 ‘빅데이터 연구’라고 부르는 대다수의 연구가 법적 규정을 적용받지 않는 것으로 나타났다”라고 말했습니다. 그동안 데이터 관련 연구자들은 연구를 진행하는 데 있어 발생하는 윤리적 문제를 자신의 판단에 맡겨야 했습니다.


관련된 우려는 또 다른 인공지능 앱 서비스에서도 나왔습니다. 한 번에 수백만명의 이름을 분석해 집단의 사회적 경향성을 찾을 수 있게 한 앱 ‘네임 프리즌’입니다. 해당 업체는 “이 도구의 목적은 차별을 식별하고 예방하기 위함이다”라고 말했습니다. 이에 캘리포니아대학 에측기술연구소 소장인 션 영 심리학자는 “HIV 예방 연구에서 효과적으로 고위험군(남성과 성관계를 가진 남성)을 찾아내는 것에 도움을 줄 수 있다”고 말했습니다. 하지만 이는 곧 차별의 위험성을 내포하기도 합니다.

출처: flickr.KamiPhuc.CC BY 2.0

인공지능은 도구일 뿐 사용법은 사용자 몫입니다. 프리스턴대학교 사회학자 매튜 살가닉은 “도구를 사용하면 차별을 잠재적으로 식별하는 데 도움이 될 수 있다. 하지만 이 도구를 사용해 차별을 할 수도 있다”고 말했습니다. 문제는 인공지능이 아닙니다. 인공지능을 둘러싼 주변의 윤리적 체계가 무너질 가능성이 문제입니다.


인공지능 연구에서 발생하는 위험을 방지하기 위한 명확한 표준 규정을 갖춰야 합니다. 이에 미국에서는 윤리학자 제이크 멧칼프를 포함해 6개 연구기관의 연구원들과 함께 ‘퍼베이드(Pervade)’라는 단체를 조직했다고 합니다. 그들은 국립과학재단(National Science Foundation)으로부터 300만달러를 지원받고, 향후 4년간 대학과 기업 모두가 사용할 수 있는 빅데이터 연구를 위한 명확한 윤리적 프로세스를 구성하고자 합니다. 인공지능이 차별을 위한 레이더가 되기 전에, 인간은 레이더 사용에 대한 명확한 윤리 규정을 세울 필요가 있습니다. 우리는 터미네이터의 ‘스카이넷’을 방지하기 위한 준비가 전혀 돼 있지 않습니다.

이 콘텐츠에 대해 어떻게 생각하시나요?