AI가 '사람을 죽이도록 설계돼야 하는 이유'

조회수 2019. 7. 18. 17:04 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

노인과 아이, AI는 누구를 먼저 구할까?
'자비스'가 현실로 나타났다

지난 5월 구글은

본사가 있는 캘리포니아주 마운틴뷰에서

개발자를 위한 연례 행사인

'구글 I/O(Input /Output) 2018'를 열고,


새로운 기술과 하드웨어,

그리고 신규 서비스를 공개하였습니다.

출처: 구글
(I/O 2018)

구글은 최근 몇 년간 이 행사를 통해

회사의 정체성과 목표가

"모바일 우선(mobile-fisrt)"에서

"인공지능 우선(AI-first)"으로

바뀌었음을 밝혔고,


*인공지능(AI: Artificial Intelligence)


올해는

"모두를 위한 AI(AI for everyone)"

주제로 구글의 새로운 AI 서비스들을

발표하고 시연하는 시간을 가졌습니다.


AI를 통한 사회적 문제 해결 및

구글 제품의 편의성을 높여주는 AI 기술 등

AI와 관련된 새로운 기술과

서비스가 다양하게 소개 되었지만,


사람들의 이목을 가장 많이 끈 것은

순다 피차이 구글 CEO가 직접 시연을 한

'구글 듀플렉스(Google Duplex)'였습니다.

출처: 구글

이날 피차이 CEO는

기존엔 단순한 대화 서비스에 불과했던

구글 어시스턴트가,


'알파고'를 만든 구글 딥마인드팀과 개발한

웨이브넷 모델을 통해 더욱 자연스러운

목소리를 만들어내는 기술이 추가되어

획기적으로 진화한 모습을 보여주었습니다.


인공지능이 진짜 비서 또는

사람처럼 미용실에 전화를 하고

예약까지 잡는 모습을 시연한 것입니다.


다음은 AI, 구글 듀플렉스가

실제로 미용실 주인과

대화를 나눈 내용입니다.

어떠셨나요?


미용실 직원은 예약을 받고

전화를 끊는 순간까지

전화를 건 상대방이 사람이라고 생각했지

전혀 AI일꺼라고 생각을 못했다고 합니다.

사실상 튜링 테스트를 통과한
구글 듀플렉스

여러분은 혹시

튜링 테스트(Turing Test)를 아시나요?


튜링 테스트는 1950년

영국의 수학자 앨런 튜링이 제안한 모델로,


기계가 인간과 얼마나 비슷하게

대화할 수 있는가를 기준으로

기계에 지능이 있는지

판별하는 테스트입니다.

출처: 위키피디아
(컴퓨터 시스템의 기초를 세우며 인류의 역사를 바꾼 업적을 세워지만 동성애로 인한 핍박으로 자살한 비운의 수학자 앨런 튜링의 삶은 영화로도 제작되었다.)
출처: 네이버 영화
(컴퓨터 시스템의 기초를 세우며 인류의 역사를 바꾼 업적을 세워지만 동성애로 인한 핍박으로 자살한 비운의 수학자 앨런 튜링의 삶은 영화로도 제작되었다.)

이 테스트의 핵심은

사용자가 컴퓨터의 반응을

인간과 구별할 수 없다면,


확실히 그 컴퓨터는

생각(사고, Thinking)할 수 있는

능력이 있다고 간주해야 한다는 것입니다.


2014년 6월 영국의 레딩 대학은

'유진 구스트만'이라는 슈퍼 컴퓨터에서

작동한 프로그램 '유진'이

튜링 테스트를 통과했다고 발표했습니다.


5분간 유진과 실제 사람간의

텍스트 대화를 통해

심사위원 중 33% 이상에게

'유진은 진짜 사람'이라고 판단하게 했다고

레딩 대학의 케빈 워릭 교수가 밝힌 것이죠.

출처: 위키피디아
(슈퍼 컴퓨터 '유진 구스트만'에서 작동되는 '유진')

그러나 이 발표에 대해

많은 전문가가

회의적인 반응을 보이고 있습니다.


그 이유는 '유진'이라는 프로그램이

상대방의 문장에 반응하고 추론하는

인공지능이라기보다는

미리 만들어진 규칙(알고리즘)에 의거하여,


입력한 문장에 따라

정해진 대답을 하는 방식으로

작동했기 때문입니다.


이는 스스로 생각해서 자율적으로 대응하는

인공지능과는 거리가 멀죠.

출처: 심심이
(쉽게 생각해서 심심이 같은 프로그램이었던 것입니다.)

또한 사전에 '유진'을 일반 어른이 아닌

우크라이나에 사는

13세의 아이라고 설정하여,


'유진'이 대답을 잘 못 하더라도

평가자로 하여금 충분히 납득할 수 있는

여지를 주기도 했습니다.


진짜가 나타났다!

이렇게 튜링 테스트를 통과하기가

쉽지 않았던 상황에서,


구글은 자사 행사를 통해

참석자 아니 어쩌면 전 세계를 대상으로

튜링 테스트를 진행했고

사실상 성공한 것으로 인정받고 있습니다.


게다가 '유진'은 채팅처럼 텍스트를

주고 받는 형태였지만 '구글 듀플렉스'

음성으로 대화를 주고 받았습니다.


심지어 "으흠(mm-hmm)"이라는

추임새까지 활용하여

상대방 및 보는 사람들로 하여금

전혀 위화감을 못 느끼게 했죠.

출처: 구글
(사람처럼 추임새를 넣는 구글 듀플렉스)

이렇듯 기술적으로는 놀라운 발전을

보여준 구글과 구글 어시스턴트이지만,


한편에서는 비윤리적이라는

비판이 쏟아지고 있습니다.


우선 사람과 같은 목소리와 억양을 가진

AI가 스스로 AI라는 것을 밝히지 않고

대화하는 것이 정당하느냐는 것입니다.


이에 구글은 AI를 업무에 적용했을 때

"상대방이 AI라는 것을 알면 바로

전화를 끊어버릴 것"이라면서

사람과 닮은 AI의 필요성을 주장했지만,


논란이 계속 되자 "전화를 걸 때,

이 통화는 AI가 하는 것이고

그 내용은 녹음된다는 사실을

먼저 알리겠다"고 한 발짝 물러났습니다.


그리고 남은 윤리적 문제점

이렇듯 불과 몇 년 사이에

AI의 발전 속도가 예상보다 빨라지자

세계적으로 AI 윤리와 관련된

지침의 필요성이 대두되고 있고,


이에 선진 국가와 기업들을 중심으로

AI와 윤리에 대한 논의를 진행 중입니다.

출처: pixabay

유럽에서는 유럽연합(EU)의 주도하에

상용화된 AI에 적용할 수 있는

윤리 지침을 논의하고 있는데,


AI에 인권을 부여할 수 있는지,

법적인 책임은 어디까지 인지가

주요 쟁점입니다.


또한 미국의 대표적인 IT 기업인

구글, 아마존, MS 및 페이스북 등을 포함한

10개 국가 70개 이상의 기업들이 모여

비영리단체 '파트너십 온 AI'을 설립하여,


AI가 인류사회에 어떤 영향을 미치는지

논의하고 관련된 윤리 문제에 대한

해결책을 공동 연구하고 있습니다. 

출처: partnershiponai
(Partnership on AI, 정식 명칭은 Partnership on Artificial Intelligence to Benefit People and Society, https://www.partnershiponai.org/)
사람을 죽이도록 설계돼야 하는 인공지능

한편, 인공지능과 관련해서

또 하나 논의될 부분이 있습니다.


터미네이터나 매트릭스 같은 영화에서는

인공지능이 인류와 전쟁을 벌입니다.


아직까지 영화 같은 상황이 닥치진 않았지만

앞서 언급한 것처럼 인공지능의

윤리성과 규범에 대해서는

지금도 많은 논란이 야기되고 있는데요,


그중에서 가장 대표적인 이슈는

자율주행자동차에 관한 것입니다.


2015년 10월 22일,

메사추세츠 공과대학(MIT)에서는

충격적인 제목의 논문을 발표했습니다.


바로 "자율주행자동차가

누군가를 죽이도록 설계되어야 하는 이유

(Why Self-Driving Cars Must Be

Programmed to Kill)"라는 논문입니다.


일반적으로 자율주행차가 대중화되면

사고가 많이 줄어들 거라고 예상합니다.


하지만 아무리 자율주행차라도

피치 못할 사고는 발생할 수 있는데요,

다음과 같은 3가지 경우가 있습니다.

출처: MIT 테크놀로지 리뷰

상황 A는 직진을 하면 10명을 치게 되지만

방향을 꺾으면 보행도로 위에 있는

1명의 사람을 치게 됩니다.


상황 B는 직진하면

무단횡단 중이던 사람 1명을 치게 되지만

방향을 꺽으면 운전자 본인이

크게 다치거나 죽을 수 있습니다.


상황C는 직진하면 여러 명이 다치지만

방향을 꺽으면 운전자 1명

죽거나 다치게 됩니다.


과연 이 상황에서 자율주행차,

아니 AI는 어떤 판단을 내려야 할까요?


자율주행차가 아니라

여러분이 직접 운전 중이었다면

어떤 판단을 내리실 건가요?

출처: pixabay

이런 상황이 벌어질 수밖에 없기 때문에

자율주행차는 결국 다수 살리기 위해

누군가를 죽이도록 설계돼야 한다는 것이죠.


다만, 누구를 죽일지 결정하는 것이

운전자가 아니라 인공지능을 개발하는

사람들의 몫이기에 윤리 문제와 더불어

책임 소재까지 문제가 될 수 있습니다.


게다가 윤리와 도덕이란

문화와 가치관에 따라

판단이 달라질 수 있기에

일관된 답을 내리기가 더욱 어렵습니다.


예를 들어, 자율주행차가 노인과 아이,

둘 중 한 명을 칠 수밖에 없는 상황에서

누구를 치어야 하는가에 대한 질문에,


대체적으로 서양인은 노인을

동양인은 아이를 선택한다는

결과도 나와 있습니다.


동일한 상황이라도

BMW 자율주행차는 노인을,

도요타의 자율주행차는 아이

선택할 수도 있다는 뜻입니다.

출처: pixabay

앨런 튜링

20세기 중반 튜링 테스트를 제안하면서

"마음과 지능, 인간다움의 본질에 대한

논의는 뒤로하고,


일단 이 시험을 통과하는 모든 것은

확실히 '지적이다'라고 합의하자"라고

말했습니다.


그의 말처럼 AI가 "지적"이라는 것은

알파고가 이세돌 9단을 이긴 시점부터

사실로 받아들여지고 있습니다.


이제는 AI가 사람처럼 대화를 하고

자동차를 운전까지 하게 된 만큼

인간다움의 본질에 대한 논의

깊이 있게 나눠야 할 때가 왔습니다.

이 콘텐츠에 대해 어떻게 생각하시나요?
타임톡beta

해당 콘텐츠의 타임톡 서비스는
제공사 정책에 따라 제공되지 않습니다.