AI 연구소 "AI로 사람 감정 읽는 기술 규제해야"

조회수 2019. 12. 18. 08:00 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

미국의 유명 인공지능(AI) 연구소가 AI를 이용해 사람의 감정을 읽는 기술 사용을 규제해야 한다고 주장했다. 감정을 읽는 AI 기술이 편견을 기술적으로 확산할 수 있고, 과학적 근거도 부실하기 때문이라고 지적했다.


미국 뉴욕에 기반을 둔 AI Now Institute는 지난주 연례 보고서를 내고 AI를 이용해 성격이나 감정, 정신건강 상태 등을 탐지한다는 기술은 부실한 이론을 토대로 만들어졌다면서 정부기관의 규제를 촉구했다. 이 보고서는 AI의 사회적 영향력에 대해 주로 연구했다.

ⓒ게티이미지뱅크

보고서에 따르면 AI를 이용해 사람을 채용하고 보험료를 정하는 소프트웨어가 판매되고 있다면서, 이러한 AI 기술의 오남용을 막아야 한다고 강력하게 요청했다. 특히 고용, 교육, 치안 등 사회적, 정치적으로 민감한 분야에서 AI 기술을 사용하는 것을 중단해야 한다고 주장했다.


이 연구소의 공동창업자인 케이트 크로포드 교수는 BBC와의 인터뷰에서 "AI 기술들은 우리의 미세한 감정과 목소리 톤, 심지어 걷는 방식까지 분석해 우리의 감정 상태를 읽었다고 주장한다"면서 "현재 직원 채용부터, 환자가 느끼는 고통에 대한 평가, 수업 시간에 학생들의 집중도를 추적하는 데까지 다양하게 어디에서나 쓰이고 있다"라고 말했다. 


하지만 그는 이러한 AI 사용이 잘못된 결과를 낳을 수도 있다고 지적했다. 그는 "사람들은 자신이 느끼고 있는 감정과 얼굴 표정이 완벽히 일치한다는 실질적인 증거는 없다는 것을 많은 연구 결과가 보여주고 있다"라고 설명했다.

ⓒ게티이미지뱅크

케이트 크로포드 교수는 기업들이 오래전에 나온 미심쩍은 연구 이론을 토대로 AI 기술을 개발하고 있다고 지적했다. 1960년대에 폴 에크만 박사가 인간의 표정을 6가지로 최소화해 구분하고, 이것으로 감정을 읽을 수 있다고 제안했던 연구를 토대로 일부 회사들이 AI 소프트웨어를 개발했다는 것이다.


그러나 폴 에크만 박사의 이후 많은 연구들은 감정 상태와 그것을 표현하는 방식에는 훨씬 다양한 경우의 수가 있음을 과학적으로 증명했다. 단순히 얼굴 표정만으로 그가 어떤 감정을 느낄지를 신뢰성 있게 추론하기 어렵다는 분석이다. 크로포드 교수는 "얼굴 표정은 문화나 상황에 따라, 또 하루에도 계속 변한다"라고 강조했다.

ⓒ게티이미지뱅크

AI를 이용한 감정인식 기술을 전문적으로 연구하는 엠텍(Emteq)도 이 기술의 오남용을 막는 규제가 있어야 한다는 데 의견을 같이 했다. 엠텍의 창업자인 찰스 은두카는 BBC에 AI 시스템은 서로 다른 표정을 정확하게 인식하고 구별할 수 있지만, 그 표정으로 감정까지 읽는 것은 간단하지가 않다고 설명했다.


다만 그는 "이런 기술을 금지하기 위해 사람들이 목욕물을 버리려다 그 속에 아기까지 버리는 우를 범해서는 안된다"라고 덧붙였다. 규제가 너무 심해져서 관련 기술 연구개발(R&D)까지 고사해선 안 된다는 당부를 전했다.


테크플러스 에디터 김명희 

tech-plus@naver.com

이 콘텐츠에 대해 어떻게 생각하시나요?