통합 검색어 입력폼

왜 지금 인공지능 윤리를 논의해야 하는가?

조회수 2016. 6. 9. 22:51 수정
음성재생 설정

이동통신망에서 음성 재생시
별도의 데이터 요금이 부과될 수 있습니다.

번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

왜 지금 인공지능 윤리를 논의해야 하는가?

슬로우뉴스는 2016년 연중기획으로 디지털 기술이 우리 사회에 초래한 변화를 점검하고, 그 미래를 전망하는 ‘미래 읽기’를 연재중입니다. (편집자)

작년(2015년)에 한국과학기술기획평가원(KISTEP)의 초대로 인공지능의 기술 영향 평가 연구에 참여할 기회가 있었다. 내가 선택한 주제는 인공지능이 야기할 ‘윤리 이슈’였는데, 처음부터 흥미로운 주제가 될 것으로 생각했지만 깊이 들여다볼수록 현시점에서 매우 중요한 사회적 담론이 되어야 한다는 생각이 들었다.

이후, 다양한 학자들의 논문과 관련 서적을 읽어 가면서 이 주제를 당분간 내 개인적인 탐구 주제로 삼기로 했다. 공학을 전공한 내가 감히 윤리학을 거론한다는 것은 내 능력을 넘어서는 일이겠지만, 이 연재를 통해 기계 윤리 또는 인공지능 윤리를 논의하는 공론장을 만들어 보는 것도 의미 있는 일일 것이다.

할, 로이 베티, 사만다, 에이바 

영화 [2001 스페이스 오디세이] (스탠리 큐브릭, 1968)에 등장하는 컴퓨터 할(HAL 9000)은 자기방어를 위해 우주 비행사에게 거짓 정보를 제공하고 자신을 정지시키려는 인간을 제거한다. 또 [블레이드 러너] (리들리 스콧, 1982)에서는 복제인간 로이 베티가 다른 복제인간에게 연민을 느끼고 인간에게 분노하는 모습을 보인다. 로봇 또는 인공지능과 함께 살아야 하는 미래 사회에서 윤리와 도덕 문제는 또 다른 논의 주제를 만들어 낼 것이다.
출처: 좌측은 할(©MGM), 우측은 로이 배티(©워너 브라더스)
비교적 최근 영화인 [그녀] (Her, 스파이크 존즈, 2013)에 등장하는 인공지능 사만다는 3천 명이 넘는 사용자와 사랑을 나누면서도 각 개인에게는 일대일로 대화하는 것처럼 행세하고, 영화 [엑스 마키나] (앨릭스 갈랜드, 2015)의 에이바는 자기 목적을 달성하기 위해 거짓말을 한다. 비록 영화 속 이야기이긴 하지만, 이런 문제들은 지능형 소프트웨어나 고급 기능을 갖춘 로봇이 우리에게 심각한 사회 윤리 이슈를 쏟아낼 수 있음을 환기했으며, 개발자의 윤리를 넘어서 인공지능 자체의 윤리 시스템에 대한 대중의 관심을 불러일으켰다.
출처: 좌측은 사만다의 구동 모습(©안나푸르나 픽쳐스), 우측은 에이바(©UPI)
이런 영화적 허구가 아니어도 현재 이미 사용 중이거나 앞으로 3~5년 안에 우리 사회에서 널리 사용될 많은 인공지능 기술은 다양한 윤리 이슈를 내포하고 있으며 이를 그대로 내버려둘 경우 여러 가지 사회적 비용이 들어가거나 혼란과 갈등을 가져올 가능성이 크다.

구글, 페이스북, IBM, 마이크로소프트 등 IT 산업을 선도하고 있는 유수의 기업들이 회사의 미래 방향을 인공지능 기술의 실현과 확장으로 보고 있는 이 시점에서, 세계적인 석학들과 오피니언 리더들은 왜 인공지능 기술의 잠재적 위험성에 우려를 표하고, 기업 내에 인공지능 윤리위원회의 구성을 요구하거나 사회적 논의의 필요성을 강조하는지에 대해서 우리 사회도 본격적인 고민을 해야 할 것이다.

왜 지금 인공지능 윤리를 논해야 하는가?

2015년 7월 미국 뉴욕에 사는 한 프로그래머가 자신의 흑인 여자 친구를 고릴라로 인식한 구글 포토 서비스의 오류를 비난한 사건은 큰 주목을 받았다.
출처: https://twitter.com/jackyalcine/status/615329515909156865
구글은 즉각 이에 대해 사과하고 결함을 수정했지만, 인공지능의 사소한 실수도 자칫 사회문제로 떠오를 수 있음을 여실히 보여주었다. 인공지능 소프트웨어 개발자의 입장에서는 아주 사소한 오류라고 생각할 수 있는 문제도 때로는 인종 차별 문제까지 거론할 수 있는 사회적 이슈가 되는 것이다. 인간이 수행해 온 인지적 업무를 수행하는 순간 인공지능 알고리듬은 근본적으로 사회적 관습과 문화를 반영할 것을 요구받기 때문이다.

은행이 대출 심사를 인공지능에 맡기는 경우, 인종이나 국적을 직접 차별하지 않더라도 거주지, 친구 관계, 소비 패턴 등의 관련 데이터를 분석한 인공지능이 알게 모르게 인종 차별적인 판단을 내릴 수 있다. 기업은 위험을 최소화하고 이익을 극대화하기 위한 기술 활용이지만, 사람들은 자신이 차별을 받았고, 불공평하며, 비윤리적이라고 비난할 것이다.

 

2016년 5월 미국 백악관이 발표한 “빅 데이터: 알고리듬 시스템, 기회, 그리고 시민 권리에 대한 보고서”에서도 빅데이터 분석과 머신 러닝이 신용 평가와 대출, 고용, 교육, 사회 정의 등의 영역에서 차별이 이루어질 수 있는 위험을 지적했다. 나는 작년 9월 “소프트웨어가 우리를 평가한다?”는 칼럼에서 데이터로 평가받고, 알고리즘과 코드로 차별받을 가능성에 대해 거론한 적이 있다. 백악관의 보고서는 향후 강력한 데이터 윤리 프레임워크의 개발을 요구하고 있다. 

자율 주행 자동차가 빠른 시일 내에 실현 가능하다는 기사가 많이 나오지만, 개인적으로 자율 주행 차가 일반 도로에서 달리기에는 매우 심각한 이슈를 아직 가지고 있다고 생각한다. 많이 거론하는 트롤리 딜레마부터 시작해서 탑승자의 안전을 위해서 인간이 아닌 생명체가 도로에 있을 때 어떤 결정을 할 것인가 하는 문제까지 많은 숙제를 풀어야 한다.

트롤리 딜레마(trolley problem)는 윤리학의 사고실험으로, 필리파 푸트가 제시하고 주디스 자비스 톰슨 및 이후의 피터 엉거와 프란세스 캄이 체계적으로 분석했다. (이하 위키백과 인용)


[Would You Kill the Fat Man?] ©프린스턴 대학 출판사 

기본 예시) 전차(trolley)가 제어 불능 상태가 되어 달려오고 있다. 선로에는 다섯 사람이 있어 곧 치어 죽을 것 같다. 이때 선로가 변경하면 다섯 사람은 무사하지만 바뀐 선로에도 한 사람이 있어서 그 사람이 죽을 것이다. 양쪽 모두 대피할 시간이 없을 때, 선로를 변경해도 되는가.

우리는 최근 발생한 마이크로소프트의 챗봇 ‘테이’의 실험에서 사용자들이 고의로 왜곡된 학습을 제공했을 때 인공지능 시스템이 얼마나 비윤리적으로 변할 수 있는지 알게 되었다. 학습 데이터의 왜곡이나 부족 또는 편견 제공은 인공지능 시스템의 머신 러닝이 윤리적으로 매우 불완전하고, 취약할 수 있음을 보여준다.

소셜 로봇의 등장이 인간관계를 단절하거나 사회적으로 용납할 수 없는 방법을 사용한다면 우리 사회는 이에 대해 어떤 조치를 할 것인가? 로봇과의 섹스는 언제 허용할 것인가? 성인용 기구와 로봇은 다른 것인가? 소아 성애자가 어린이 모양의 로봇을 이용한다면 이는 법적으로 방지하거나 처벌할 것인가 아니면 치료용으로 허용할 것인가?

어떤 윤리를 논할 것인가?

우리가 고민해야 하는 기계 윤리 또는 인공지능 윤리는 과연 어떤 이슈이고 어떤 주제를 논의해야 하며 그 구체적 구현 방안이나 기술적 도전은 무엇인가? 이는 생각보다 훨씬 다각적 측면이 있으며, 철학과 공학이 만나는 지점이다.

닉 보스트롬과 엘리저 유드코프스키는 2011년 에세이 “인공지능의 윤리학”에서 이 질문은 지능형 기계가 인간과 또 다른 도덕적으로 관련 있는 존재에 해를 끼치지 않음을 보장하는 것뿐만 아니라 기계 자체의 도덕적 지위까지 관련이 있다고 했다. 



키스 애브니(Keith Abney)는 로봇 윤리학이 다음 세 가지를 포함한다고 말한다.

  1. 로봇공학자의 전문가적 윤리
  2. 로봇 안에 프로그램된 ‘모럴 코드'(moral code)
  3. 그리고 로봇에 의해 윤리적 추론이 이루어질 수 있는 자기 인식 능력을 의미하는 로봇 윤리

나는 이 세 가지에 더해 (로봇)사용자의 윤리를 논의에 포함하고 싶다. 지금까지 우리 사회는 개발자의 윤리 문제를 많이 다루었다. 그러나 이 문제 역시 개발자나 개발 회사의 윤리 기준으로 특정한 윤리 코드를 구현해도 되는가 하는 문제로 발전한다.

윤리 연구 분야는 보통 메타 윤리학, 규범 윤리학, 응용 윤리학 등으로 나뉜다. 규범 윤리학은 오랫동안 다양한 학자에 의해 논의된 우리가 흔히 알고 있는 모든 윤리적 질문에 대한 대답이다. 미덕 윤리학, 스토아철학, 쾌락주의, 에피쿠로스 철학, 결과주의, 공리주의, 의무론, 포스트모던 윤리학까지 다양한 윤리론이 등장해 왔다. 이 글에서 이런 철학적 접근 방식의 차이를 깊이 다루지는 않을 것이지만, 앞으로 논의할 주제에 여러 관점을 참고할 것이다. 

또한, 좋음이나 옳음이라는 가치나 규범적 속성이 존재하는지, 또 그것이 믿음이나 욕구, 정서의 표현인지를 논의하는 메타 윤리학은 인공지능 윤리의 기본 범위에 들어가지 않지만, 다양한 과학적 연구 결과를 인공지능 윤리에 투영해 볼 수 있을 것이다. 

인공지능에서 윤리를 어떻게 구현할 것인가는 결국 인공지능 소프트웨어나 로봇이 특정 상황이나 사회적 이슈, 환경에서 어떻게 행동하게 할 것인가에 대한 대답을 구하는 것이다. 이는 수 많은 사회, 정치, 기업, 문화 상황에서 제시되는 이슈에 대한 윤리 문제를 고민하는 응용 윤리학의 영역이라고 생각할 수 있다. 

인공지능 윤리라는 주제에 접근하기 어려운 점은 메타 윤리학의 과학적 접근과 해석, 규범 윤리학이 오랫동안 연구한 원칙들을 반영해, 응용 윤리학에서 대답하고자 하는 문제에 대해 인공지능이 어떻게 행동하거나 표현하게 할 것인가를 다루어야 하기 때문이다
출처: 출처: 위키백과 (CC BY-SA 3.0)
과학의 발전은 윤리학의 영역을 진화 윤리학이나 윤리 심리학, 그리고 신경윤리학 영역까지 확장하고 있다. 신경윤리학은 신경 과학의 윤리적 문제와 함께 전통적 윤리학의 문제를 신경 과학으로 이해하고자 하는 학문이다.

신경윤리학은 인간의 윤리적 행동이나 판단을 뇌과학으로 이해하는 메타 윤리학적 접근이어서 일반적인 인공지능 윤리에 대한 논의에서 벗어나기는 하지만 마음 읽기, 정보적 통합성, 자기 정체성, 자기기만, 도덕적 직관 등에 대한 뇌과학적 이해는 인공지능 윤리 연구에 도움이 될 수 있다. 

인간은 두 종류의 의사 결정 시스템을 갖고 있다. 하나는 본능적이고 감정에 의한 시스템이고 이는 무의식적으로 이루어진다. 동물도 이런 비인식적 의사 결정 시스템을 갖고 있다. 인간이 갖는 두 번째 시스템은 숙의적 추론 또는 숙의 시스템이라는 의사 결정 시스템이다. 이는 우리 선조들로부터 물려받은 본능적 의사 결정 위에 놓여서 우리의 본능적 행위에 대해 후회하기도 한다. 

키스 애브니에 따르면, 숙의 시스템은 선택 가능한 미래를 의식적 표현으로 구조하는 능력이며 어떤 표현이 우리가 경험하고자 하는 현실이기를 바라는 것인가에 따라 행동을 선택할 수 있는 것을 의미한다. 다시 말하면 숙의 시스템은 도덕적 에이전트를 포함하는 것이고 이것이 없으면 도덕성은 존재할 수 없다는 것이다. 

결국, 인공지능의 윤리 문제는 바로 인공지능 안에 이 숙의 시스템을 어떻게 구현할 것인가의 문제가 된다. 숙의적 추론이 가능하지 않은 사람에 대해서 우리는 윤리적 판단을 하지 못하는 사람으로 간주하기 때문에, 숙의 시스템의 유무는 바로 인간뿐만 아니라 인공지능의 윤리 기능 또는 윤리 엔진의 유무에 대한 기본 검토가 될 것이다.

모든 인간 활동은 ‘좋음’을 추구한다

윤리와 도덕은 가장 오래된 철학 주제이기도 하다. 아리스토텔레스의 [니코마코스 윤리학]의 제 1장은 이렇게 시작한다.
“모든 인간 활동은 좋음을 추구한다 … 모든 기술과 탐구는 물론이고, 모든 행위와 선택이 추구하는 것은 어떤 좋음인 것 같다. 따라서 좋음(agathon; 선)이야말로 당연히 모든 것이 추구하는 목표라고 할 수 있다.”
그는 윤리학이 정치학의 입문이며 윤리학은 개인이나 어떤 집단의 행복이 주제라고 주장했다.

앞으로 우리는 매우 다양한 주제를 논의해야 할 것이다. 나는 앞으로 공학자이자 테크 저널리스트로서 우리 사회가 마주칠 인공지능이 갖는 윤리적 측면을 이슈별로 논의할 것이다. 



그러나 내가 진정으로 원하는 것은 윤리학자, 철학자, 법학자, 심리학자, 신경 과학자들이 같이 이 주제를 한 번 심도 있게 논의하는 것이고, 이를 통해서 우리 사회가 앞으로 맞이할 인공지능 시대를 보다 지혜롭게 준비하기를 원하는 것이다. 호모 사피엔스의 사피엔스는 지혜를 의미하기 때문이고, 이는 도덕과 윤리를 얘기하는 전제 조건 중 하나가 되기 때문이다. 

앞으로 나는 이 시리즈를 통해서 의식이나 마음에 대해서 논하지는 않을 것이다. 물론 인간의 의식과 마음이 윤리와 관계되어 논의할 필요가 있을 때 여러 학자의 주장을 기반으로 생각을 정리할 것이다. 따라서 의식을 갖는 인공지능의 윤리 의식 같은 주제는 이 시리즈의 범위를 넘어서는 것이다. 의식과 마음은 아직 과학이 충분히 설명하지 못하는 미개척 영역이기 때문이다. 

이 시리즈에서 논의하지 않을 또 하나의 주제는 소위 ‘초지능’의 문제이다. 닉 보스트롬의 책을 통해 초지능의 실현 방안이 여러 측면에서 얘기되었고, 이미 1965년 I.J. 굿의 [최초의 울트라 지적 머신에 관한 고찰], 1993년 버노 빈지의 [다가오는 기술적 특이점], 2008년 유드코프스키의 [글로벌 위험 판단에 잠재적 영향을 주는 인지 편견] 등에서 초지능의 구현과 이에 대한 잠재적 위협을 거론했듯이 초지능은 여러 학자에 의해 오랜 기간 논의한 주제이다. 다만 초지능이 가져올 윤리적 측면을 논하기에는 아직은 너무 이른 시점이라는 것이 내 견해이다. 이 역시 마음과 의식처럼 우리가 충분히 알고 있지 못한 영역이기 때문이다. 

윤리나 철학에 대해서 아마추어인 공학자가 어려운 도전을 하고자 하는 시도에 많은 독자의 조언과 비판, 그리고 건설적 토론을 진정으로 바란다.


참고문헌:

Executive Office of the President, [Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights], May 2016.

N. Bostrom and E. Yudkowsky, [The Ethics of Artificial Intelligence] Draft for Cambridge Handbook of Artificial Intelligence, eds. W. Ramsey and K. Frankish, Cambridge University Press, 2011.

K. Abney, [Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed] in Robot Ethics: The Ethical and Social Implication of Robotic, eds. P. Lin, K. Abney, and G. Bekey, The MIT Press, 2012.

닐 레비, [신경윤리학이란 무엇인가], 신경인문학연구회 옮김, 바다출판사, 2011년 11월.

아리스토텔리스, [니코마코스 윤리학], 천병희 옮김, 도서출판 숲, 2013년 10월.

I. J. Good, [Speculations Concerning the First Untraintelligent Machine], in F. Alt and M. Rubinoff (eds.) Advances in Computer, 6, NY: Academic Press, 1965.

V. Vinge, [The Coming Technological Singularity] presented at the VISION-21 Symposium, March 1993.

E. Yudkowsky, [Cognitive biases potentially affecting judgement of global risk] in Bostrom and Cirkovic (eds.), pp. 91-110, 2008.
출처: 클릭하시면 후원페이지가 열립니다.
슬로우뉴스 좋으셨나요?
이 콘텐츠에 대해 어떻게 생각하시나요?