본문 바로가기

댓글0
번역beta

Translated by kakao i

번역할 언어 선택

뷰 본문

테크플러스

AI 스피커 속 여성 목소리, 성 고정관념 강화한다?

30 읽음
댓글0
번역beta

Translated by kakao i

번역할 언어 선택

우리가 흔히 만날 수 있는 인공지능(AI) 스피커 애플 시리, 아마존 알렉사의 목소리는 여성이다. 네이버 클로바, 카카오 미니 등 제조업체마다 디자인은 다르지만 모두 여성의 목소리로 된 음성 어시스턴트를 사용하고 있다. 여기에 익숙해진 탓일까. 문제라고 생각지도 못한 이 부분이 성 고정관념을 강화시킨다는 연구결과가 나왔다. 

출처apple

지난 5월 21일 더 버지에 따르면, 유엔 교육과학문화기구 유네스코(UNSCO)는 ‘I'd blush if I could(내가 할 수만 있다면 얼굴이 붉어졌을 것이다)’라는 제목의 논문을 발표했다. 해당 제목은 사용자가 시리에게 성적인 농담을 했을 시 나오는 응답이다. 


논문은 여성 어시스턴트가 모욕적인 발언에 미숙한 반응을 보인다고 지적했다. 실제로 어시스턴트는 사용자가 성적인 농담이나 조롱을 했을 때 회피하거나 사과하는 등 무조건 명령에 존중하고 질문에 응답한다. 

출처Freepik

유네스코는 여성화된 어시스턴트가 언어적 학대에 ‘동참’하도록 구축됐다고 설명했다. 여기에 시리나, 알렉사와 같이 여성에게 주로 쓰이는 이름을 붙이고, 여성 목소리를 부여하면서 ‘여성은 수동적이다’라는 편견을 심어줄 수 있다는 것이다. 


그러면서 “AI 스피커 제조업체가 음성 어시스턴트를 ‘여성’으로 만드는 것을 중단해야 한다...이 문제에 대한 해결책은 음성 어시스턴트가 중성적인 목소리를 사용하고, 성적인 모욕 등 언어 학대를 막기 위한 시스템을 만드는 것”이라고 강조했다. 

출처WP

이런 주장이 나온 건 처음은 아니다. 미국 포춘에도 여성 어시스턴트가 성차별주의를 고착화한다는 칼럼이 게재된 바 있다. 


라이브퍼슨 CEO 로버트 로카시오는 “최근 두 살짜리 딸이 알렉사와 대화하는 걸 들었다. 아이가 음성 어시스턴트와 인간의 목소리를 구분하지 않는다는 것, 그리고 무례한 방식으로 알렉사에게 명령을 한다는 것을 알게 됐다...AI 혁명은 최근에 시작됐지만 세계 인구의 절반인 여성을 소외시키고 있다. 부끄러운 일이다”라고 말했다. 


미셸 하벨 팔란 워싱턴대 여성학과 교수 역시 “AI 비서에 여성성을 부여한다는 것은 나쁜 뜻이 없더라도 성 고정관념을 강화할 수 있다는 점에서 큰 문제다”라고 강조했다. 

출처Maxpixel

계속해서 이런 문제가 제기되고 있지만, 제조업체의 입장은 늘 같다. “사용자들이 여성의 음성을 선호해서”. 아마존, 마이크로소프트 등은 직원, 사용자를 대상으로 남성과 여성의 목소리를 들려줬을 때, 압도적으로 여성 어시스턴트를 선호했다고 말했다. 여성의 목소리가 신뢰도가 더 높으며 안정적이고 친숙한 느낌을 받는다는 이유였다. 


“성차별적이다”, “남성의 목소리가 공격적으로 들려서일 뿐”, “성차별적 요소 없다”, “학습된 편견이 어시스턴트에 반영된 것이다”. AI 스피커가 존재하는 한 해당 논란은 계속될 것으로 보인다. 일상에서 쉽게 들을 수 있는 지하철 방송을 포함한 각종 안내방송이 ‘여성’이라는 점도 다시 짚어봐야 할지도 모르겠다. 중요한 점은 AI는 본디 성별이 없다는 것이다. 

작성자 정보

테크플러스

    실시간 인기

      번역중 Now in translation
      잠시 후 다시 시도해 주세요 Please try again in a moment