본문 바로가기

댓글0
번역beta

Translated by kakao i

번역할 언어 선택

뷰 본문

슬로우뉴스

인공지능 윤리는 왜 어려운가?

2,487 읽음
댓글0
번역beta

Translated by kakao i

번역할 언어 선택

인공지능 윤리는 왜 어려운가?

슬로우뉴스는 2016년 연중기획으로 디지털 기술이 우리 사회에 초래한 변화를 점검하고, 그 미래를 전망하는 ‘미래 읽기’를 연재한다. (편집자)

인공지능 시스템에 어떠한 방식으로 윤리 코드나 엔진을 구현하고자 할 때 가장 먼저 떠오를 수 있는 방식은 보편적인 윤리를 규칙으로 설정해보는 것이다. 이는 칸트의 정언 명령과 같은 의무론적 윤리를 구체화하는 방식이 될 것이다.

“보편적 법칙을 따르는 행동 준칙을 따라 행동하라”든지, “인간을 (수단이 아닌) 목적으로 다루어 행동하라”는 그의 정언 명령은 존엄하고 자율적인 인간을 가정하는 원자론적 인간관이다. 이에 따라, 자연과 외적인 권위에 대립하는 인간은 다른 사람과 관계가 없는 개인적 자아가 된다. 또한, 인간에게 자율, 즉 도덕적 의지에 의한 자기규정이라는 철저한 의미의 자유 개념을 부여한다. 

그러나 우리가 앞으로 구현하고자 하는 인공지능에서 이런 자율과 도덕적 의지를 구현하거나 설정하고, 초래할 결과와 무관하게 *선의지에 따르려는 동기만을 강조한다면, 인공지능 시스템의 윤리 구현 방식은 크게 달라질 수밖에 없다. 이러한 방향은 ‘인공지능이 인간이 될 수 있는가?’라는 문제로 귀결되며, 또 다른 차원에서 논의할 가능성이 있다고 생각한다. 

이런 측면에서 칸트주의자는 인공 도덕 행위자(AMA; Artificial Moral Agent)에 대해 가장 비판적일 수 있다. 그들은 기계가 진정한 자유의지를 결코 가질 수 없다고 믿기 때문이다.
* 선의지 : 칸트가 사용한 용어로, 마음속에서 옳다고 믿어 그에 따라 행하고자 하는 순수한 동기에서 나온 의지를 뜻한다.

의무론적 접근, 로봇 3원칙

철학을 잠시 잊어버리고, 의무론적 접근 방식에서 우리에게 가장 널리 알려진 사례는 아시모프가 제시한 로봇 3원칙(three laws of robotics)이다. 1942년 그의 책 [아이, 로봇]에 나오는 단편 [술래잡기 로봇(Runaround)]에서 아시모프는 다음과 같은 ‘로봇공학 3원칙’을 제시한다.


1. 로봇은 인간에게 해를 가하거나 해를 당하는 상황에서 무시하면 안 된다.
2. 로봇은 1원칙에 어긋나지 않는 한, 인간의 명령에 복종해야 한다.
3. 로봇은 1, 2원칙에 어긋나지 않는 한, 자신을 지켜야 한다.

언뜻 보면 그럴듯해 보이는 이 원칙은 여러 영화에서 모순을 드러내거나 부조화를 이루면서 혼란을 초래할 수 있음이 알려졌다. 아시모프 자신도 그의 작품들에서 이 로봇 3원칙의 모순을 파고들기도 했다.

아시모프의 로봇 3원칙은 사실 제1원칙부터 어려운 문제를 안고 있다. 일단 ‘인간’을 어느 개념으로 정의할 것인지부터 쉬운 문제가 아니다. 인류는 한동안 다른 인종을 인간과 다르다고 분류한 적도 있고, 앞으로는 생물학적 특징만으로 인간을 정의하기 어려워질 수 있기 때문이다. 로봇에 이를 주입하는 것이 쉬운 일은 아니다. 

또한, ‘해를 가한다’는 것을 판단하려면 우선 그 행동의 결과가 누구에게 해가 될 수 있는지를 알아야 한다. 하지만 모든 상황을 정확히 판단한다는 것은 불가능한 일이다. 주변의 인간에게는 해를 가하지 않아도 지구 어딘가에 있는 다른 인간에게 해를 끼칠 수도 있는데 이를 계산할 방안이 없다. 

단순히 물을 달라고 하는 인간의 명령에 해로운 성분이 있는 물을 주지 않거나, 너무 많은 양을 주지 않을 방법을 일일이 제어해야 한다. 반대로 매우 비도덕적인 사람이 여러 개의 로봇에게 각각 일을 나누어서 지시했고 이 일들이 모여서 결과적으로 인간에게 해를 끼치는 일이 될 수도 있는데, 이를 막기 위해서 로봇은 인간의 상황을 파악하는 것뿐만 아니라 다른 로봇의 움직임이나 행동의 결과를 예측할 수 있어야 한다. 더군다나 제1원칙을 따라야 한다면 전쟁 로봇은 애초에 불가능하다. 



제2원칙조차 인간의 발언 중 어디까지가 명령임을 알아내는 것 자체가 쉬운 일이 아니다. 제1원칙과 제2원칙을 따라서 행동한 것이 특정인을 구했지만, 그 결과로 인류에게 엄청난 파국을 일으킨다면 어떻게 할 것인가? 

아시모프는 이 문제를 해결하고자 1985년 제0원칙을 추가한다. 
  • 제0원칙: 로봇은 인류에게 해를 가하거나, 또는 해를 당하는 상황을 무시해서는 안 된다. 
이를 통해 인류에게 존재적 위협을 방지하기 위해 특정인에게 해를 가할 수 있는 가능성을 만들었다. 그러나 이처럼 인류에게 커다란 위협이 언제 존재하고, 얼마나 심각한 것인가를 로봇이 어떻게 결정할 것인가? 

이와 같이 의무론적이고 하향식 방법의 문제는 규칙을 완벽하게 따를 때도 여전히 끔찍한 결과를 일으킬 수 있다는 점이다.

로봇과 공리주의 그리고 프레임

결과주의적 윤리 또는 공리주의 역시 해결책을 제공하지 못한다. 최대 다수의 최대 행복이라는 표현에는 모든 사람의 행복을 어떻게 정량화할 것이며, 사람의 행복은 동등한 것인지, 모든 가능한 행동을 어떻게 계산해서 결과를 예측할 것인지 등에 대해 적절한 대답이 없다는 한계가 있다. 그 계산의 기간을 언제까지로 해서 결과를 생각해야 하는 것인지도 판단하기 어렵다. 또한, 비용과 효과로 분석한다고 하면 인간의 도덕적 가치를 경제적 가치로 환산할 수 없다는 반론에 부딪힌다.

만일 계산의 문제가 해결된다고 가정해도, 전가(scapegoating)라는 문제를 야기할 수 있다. 이에 대해 키스 애브니는 또 다른 문제점을 지적한다.

‘공리를 최대한으로 추구하는 것은 부당함을 요구할 수 있는데, 사람의 생명과 경제적 피해를 불러오는 폭동을 막기 위해 아무 죄가 없는 사람을 처형할 수도 있다.’



어떤 하향식 방법이든 인공지능 시스템으로 채택하게 됐을 때 마주칠 문제는 소위 ‘프레임 문제’다. 즉, 어떤 정보가 윤리적 의사 결정에 관련되거나 무관한지를 알아야 한다. 무언가를 결정하기 위해 로봇이 모든 것을 알아야 하거나, 모든 정보를 어떻게 고려할 수 있을까?

버클리 대학의 스튜어트 러셀 교수가 즐겨 드는 사례는 ‘부엌 로봇이 어떻게 고양이를 요리하지 않게 할 것인가?’이다. 요리할 때 고기 재료가 없음에도 로봇이 고양이를 요리하지 않게 만들기 위해서는 다음과 같은 질문이 필요하다.

‘고양이에 대한 사람의 감정 가치가 영양 가치를 넘어선다는 것을 알아내야 하는데 이를 어떻게 구현할 수 있는가?’

상향식 접근, 윤리 학습을 통한 구현

하향식 접근이 여러 가지 모순이나 한계가 있다면, 상향식 접근 방법은 어떤가? 상향식이란 결국 윤리적 판단 능력이나 윤리 행위자를 학습을 통해 구현하자는 뜻이다. 이는 센서 기반의 시스템이 인간의 행위를 파악하면서 그 가운데 윤리 기반의 행동을 확인하고, 어떤 행동이 윤리 양상을 가진다면 그에 관한 코드가 만들어지는 것을 의미한다.

스튜어트 러셀은 역강화학습(IRL; Inverse Reinforcement Learning)을 통해 이를 구현할 수 있다고 했다. 예를 들어 인간이 아침마다 물을 끓여 커피를 타는 것을 반복하고, 이에 따라 기분이 좋아지는 것을 안다면, 커피 타는 행위가 코드로 들어갈 수 있다는 것이다. 



그러나 이런 상향식 접근은 인간 행동의 목적과 결과, 영향, 행동이 윤리적 기반을 갖는 것임을 판단하는 능력을 갖추고, 이를 다시 내부의 코드로 만들어가야 하는 어려움을 갖고 있다. 

인간 가치를 표현하고 이를 각 인간의 배경에 따라 윤리, 법, 도덕으로 인지할 수 있는 능력을 포함해야 하므로 아직 이런 방향의 연구는 초기 단계라고 생각한다. 더군다나 이런 인간 행동이 윤리적 의미를 갖게 될 때에는 다양한 인간 감성 표현과 감정을 이해해야 하는데, 이는 아직 우리가 알고 있는 인공지능 기술에서도 매우 어려운 분야이다.

하이브리드 방식으로 단계별 구현

인공 윤리 행위자의 구현은 하향식과 상향식을 결합한 하이브리드 방식이 되어야 한다고 생각한다. 그러나 하향식에 포함할 기본적인 도덕 규칙의 범위와 이를 기반으로 하는 추론 엔진의 정당성, 상향식으로 학습할 방법과 그 학습이 초기에 주어진 규칙과 추론에 상충할 때 해결 방안 등 아직 우리에게는 가야 할 길이 많다.

강순전은 헤겔의 윤리학을 설명하면서 이렇게 말했다.

‘윤리의 본질이 개인의 이기적 욕구를 넘어서 타인을 배려하는 것이라면, 자기 정체성을 공동체로 확장하는 공동체주의는 개인주의에 기초한 자유주의보다 더 윤리적인 윤리설이라고 할 수 있다.’

이를 위해서는 공동체의 목적이나 공동선을 파악할 필요가 있는데, 이를 현실의 특정 집단으로 투영하면 다양한 일상의 윤리나 응용 윤리의 문제로 접근할 수 있을 것이다.

결국, 초기의 접근은 의사, 변호사, 콜센터, 이미지 인식, 금융 서비스 등 특정 분야에서 사회적으로 인정할 수 있는 최소한의 도덕 규칙과 윤리 가이드라인을 기반으로 출발할 수밖에 없을 것이다. 

그러나 앞에서 살펴본 것처럼, 어떤 규칙도 완벽하지 않고 특정 사례에 대해 부정확한 판단을 내릴 가능성이 있으므로 이런 상황을 어떻게 대처할 것인가에 대해 논의해야 한다. 또, 그런 상황 발생을 어떻게 확인하고 예방할 것인가도 아직 불명확하다. 

사람들은 법률적 시각으로, 인공지능이 어떠한 행위를 하더라도 결국 그 행위를 통한 권리 귀속자가 윤리·도덕적 책임을 지게 하면 인공지능의 문제는 쉽게 풀 수 있는 것이 아닌가 하는 질문을 던진다. 물론 인공지능은 행위자 또는 *행위 주체자(Agent) 역할을 하지만 아직 권리 귀속의 주체가 될 수 없을 것이다. 



그러나 앞으로 수많은 (로)봇이 등장하면서 이들의 행위를 일일이 관리·감독할 수 있는 상황을 넘어선다면, 또한 어떤 행위의 원인이 어디서 비롯된 것인지 파악하는 것이 불가능해진다면, 우리는 점점 인공지능 시스템이 행위와 권리 주체자 역할을 하게 됨을 받아들일 것이다. 

물론 그 전에도 행위 주체자로서 인공지능이 불러올 사회적 이슈는 늘어날 것이고, 이를 활용하는 사람이나 기업이 모든 책임을 지게 한다면, 이들은 이런 책임을 최소화하기 위해서 최소한의 ‘인공 도덕 행위자’를 구현하고자 할 것이다. 

다음에는 인공지능의 윤리 문제 중 아직 연구 단계에 있는 ‘인공 도덕 행위자’에 대한 다양한 접근 방식을 살펴보도록 하겠다.
* 행위 주체자(Agent) : Agent라는 단어는 능동자, 행위자, 행위 주체자 등으로 각 학문 영역마다 다르게 번역되며, 컴퓨터 과학에서는 외래어로 그냥 에이전트로 사용하기도 한다.

참고문헌: 

[처음 읽는 윤리학], 서울대학교 철학사상연구소 엮음, 95쪽.

Keith Abney, [Robotics, Ethical Thoery, and Metaethics: A Guide for the Perplexed] in (eds. P. Lin, K. Abney, and G. Bekey) Robot Ethics, The MIT Press, 2012.

Stuart Russell, [Should We Fear Supersmart Robots], Scientific American, June 2016.

강순전, [헤겔의 공동체로 확장된 주체의 윤리], 처음 읽는 윤리학, pp. 87 – 114, 도서출판 동녘, 2013년 12월.

실시간 인기

    번역중 Now in translation
    잠시 후 다시 시도해 주세요 Please try again in a moment