인공지능 윤리 기준을 위한 활동들
인공지능 윤리 기준을 위한 활동들
왜 지금 인공지능 윤리를 논의해야 하는가?
인공지능 윤리는 왜 어려운가?
-> 인공지능 윤리 기준을 위한 활동들
기업 내부의 윤리 위원회와 투명성의 문제
구글도 다른 기업처럼 ‘윤리와 규정 준수팀’이 있으며, 모든 정치 관련 법이나 보고서 등에 준수 여부의 확인을 위해 외부의 윤리 위원회와 같이 협력하고 있다. 소비자의 위험이나 공공 안전을 개선하기 위한 행동을 통해 기업의 책임을 최소화하고자 하는 노력이다.
그러나 새롭게 떠오르는 기술은 아직 법이나 규제가 예측하거나 기술할 수가 없는 불분명한 윤리 영역이 있다. 이는 단순한 프라이버시 문제나 제품 책임의 문제를 넘어선다. 따라서 우리는 딥마인드의 요청으로 딥마인드가 법률적 위험 회피를 넘어서는 영역에 관심이 있음을 알 수 있다.
2. 외부와 내부 자문단 모두 장단점이 있다.
내부 위원회는 특별한 정보에 접근할 수 있고 온디맨드 가이드가 가능하며 기업 리더십에 영향을 미칠 수 있다. 이미 의학에서는 30여 년 전부터 윤리 위원회를 가동해서 생명 유지 장치의 제거나 정신적 장애에 의한 건강한 관절 제거 등의 문제를 풀어 왔다.
다른 영역에서도 아직 내부 윤리 위원회는 드문 상황이지만, 2014년에 BMW는 자율 주행 자동차 개발을 위한 내부 윤리팀을 구성했다고 한다. 외부 자문단은 독립성이라는 특장점이 있다. 이미 여러 영역에서 윤리학자들이 자문을 제공하고 있으며 *‘기술 철학 학회’가 대표적인 조직이다.
3. 립 서비스가 아닌 진정한 접근 태도가 필요하다.
많은 기업이 대외적으로 자신들이 윤리에 관심이 있음을 보여주기 위해 윤리를 PR 차원에서 접근한다. 대표적인 것이 국방 산업에 있는 기업들이 드론이나 인간 증강 무기 등에 대해 무기 윤리에 관심 있는 척하는 것이다.
구글의 유명한 모토인 ‘악하지 말자(Don’t be evil)’를 진정으로 실천하려면, ‘악하다’는 것이 무엇이고 악한 행동이 무엇인지 정확히 정의하는 노력이 필요하다. 왜냐하면, 그 자체가 어렵기 때문이다.
* 기술 철학 학회: Society for Philosophy of Technology
이에 비해 텍사스 오스틴에 있는 인공지능 스타트업인 루시드 AI(Lucid AI)는 자체 윤리 위원회를 구성했는데 MIT 물리학 교수 맥스 테그마크와 임페리얼 칼리지 교수 머레이 샤나한을 포함해 6명으로 구성했음을 밝혔다.
루시드 AI(Lucid AI)
이들이 인공지능이 미지의 영역으로 진입하기 때문에 자기들이 성취한 결과가 단지 ‘고객을 위해 대단한 것인가’가 아닌 ‘인류를 위해 대단한 것인가’를 물어봐야 한다고 밝히고 있다. 창업자이며 의장인 마이클 스튜어트는 자신들의 기술 영향이 옳은 것인가를 확인하는 윤리 자문 패널(Ethics Advisory Panel; EAP)에 의해서 지도(가이드)를 받아야 한다는 원칙을 지키려고 한다는 것이다.
EAP의 최고 책임자인 케이 퍼스-버터필드의 말에 의하면 회사의 모든 핵심제품 개발팀에 자기 팀원이 같이 하고 있으며, 외부 활동에도 적극적으로 참여하고 있다고 강조했다. 제품·기술 개발이 부정적인 방법으로 파괴적 혁신이 되는 것을 지켜보는 것이 아니라 시작부터 윤리적으로 올바르게 되도록 하는 것이 중요하다는 것이다.
인공지능 윤리 문제를 논의하는 기관들
인공지능과 관련된 기술 개발이 인류의 윤리 기준이나 인간성 보호, 보편적 가치를 지키도록 감시하거나 이에 관련된 연구를 하는 조직으로는 각 대학 내 연구 조직, 국제적 기구 등 다양한 유형이 있다.
오픈 로봇윤리 이니셔티브(ORi)
이 가운데 가장 적극적인 활동을 하는 기관은 *오픈 로봇윤리 이니셔티브(ORi)로 로봇 공학의 윤리, 법률, 사회적 이슈에 대해 적극적 토의를 주도하는 싱크 탱크이다. ORi가 추진하는 캠페인 중 하나는 ‘킬러 로봇을 중단하라’는 캠페인이다. 즉, 자체적인 판단으로 전쟁 중이라도 사람에 대한 살상을 결정하는 로봇을 금지해야 한다는 운동이다.
이들의 주장은 일단 우리가 사람을 죽이는 자동화된 기계를 승인하는 순간, 다시 말해 ‘의미 있는 인간 제어’를 포기하는 순간 다른 모든 곳에서 기계에 권리를 넘기는 일이 발생할 것이라는 우려에서 비롯한다.
흥미로운 점은 ORi를 공동 설립한 인물 중 한 명이 *브리티시 컬럼비아 대학 기계 공학과 박사 과정에 있는 문아정이라는 한국계 학생이라는 점이다.
ORi에서는 대중이 인공지능 윤리에 갖는 관심을 키우고, 때로는 사람들이 어떤 관점을 갖고 있는가에 대해 다양한 조사를 하고 있다. 군용 무기에 대한 의견뿐만 아니라 ‘알콜 중독자가 술을 요구하면 돌봄 로봇은 어떻게 해야 하는가?’, ‘비만 환자가 정크 푸드를 달라고 하면 돌봄 로봇은 음식을 가져와야 하는가?’ 등 흥미로운 질문을 통해 우리가 갖는 윤리 의식에 대한 대중적 의견을 취합하고 있다.
2015년에는 국제 인공지능 학술회의를 통해 1,000여 명의 학자와 오피니언 리더들이 자동화 무기 개발에 반대하는 의견을 공개서한으로 밝혔다. 이를 주도한 사람 중의 하나가 루시드 AI의 윤리 자문 패널 멤버인 맥스 테그마크이다.
*‘LAWS 편지’라고 부르는 이 공개서한은 ‘생명의 미래 연구소(Future of Life Institute)’에 공개되어 있는데, 이 연구소는 인공지능뿐만 아니라 핵무기와 생명과학, 기후 변화가 인류의 미래에 위협이 되지 않기 위한 노력과 연구를 수행하는 기관이다.
2015년 1월에는 인공지능 관련 수십 명의 학자와 리더가 푸에르토리코에서 인공지능 안전에 관한 컨퍼런스를 열었고, 버클리 대학의 스튜어트 러셀 교수, 인류 미래 연구소의 다니엘 뉴이, MIT의 맥스 테그마크는 미국 인공지능 학회 공식 매거진에 강건하고 유익한 인공지능을 위한 연구 우선순위에 관한 글을 기고했다.
2015년 5월에는 스튜어트 러셀, 사빈 호이에르, 러스 알트만, 마뉴엘라 벨로소가 인공지능의 윤리를 로봇 공학 입장에서 기고한 글이 네이처에 실렸다. 이들은 각각 자동 살상 무기 문제, 인공지능 전문가의 소셜 미디어 활동의 중요성, 인공지능 성과를 공정하게 분배하는 문제, 인간과 로봇의 공존 문제를 논의했다.
인류 미래 연구소학교 내에 있는 기관으로는 옥스포드의 닉 보스트롬 교수가 주도하는 **인류 미래 연구소(FHI)이다. 이 연구소는 철학부가 주도하면서 학자들과 수학, 과학 등의 다학적 연구를 수행한다. 현재 12명의 풀타임 연구자가 있다. 주요 연구는 거시 전략, 인공지능 안전, 기술 예측과 위험 평가, 정책과 산업에 대한 연구들이다.
2014년에 마이크로소프트 창업자 폴 앨런은 인공지능을 위한 앨런 연구소(AI2)를 세웠고 인류의 공동선을 위한 인공지능 연구를 하고 있다. 이들은 영향력이 큰 인공지능 연구와 공학을 통해 인류에게 공헌한다는 미션을 갖고 있다. 여기는 오렌 에트지오니(Oren Etzioni) 박사가 리드한다. 현재 40여 명의 연구자가 있다.
가장 최근에 이루어진 인공지능 윤리에 관한 움직임은 일론 머스크와 와이콤비네이터의 샘 말트만이 설립을 주도한 비영리 ‘오픈 AI’ 연구소이다. 여기에는 링크드인의 리드 호프만, 피터 틸, 아마존 AWS, 인포시스 등이 참여하며 초대 연구소장은 일리야 수츠케버(Ilya Sutskever)가 맡았다. 그는 구글 브레인 팀에서 일했으며 제프리 힌튼이 설립한 DNN 리서치의 공동 창업자였다.
** 인류 미래 연구소 : Future of Humanity Institute
1. K. Abney, “Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed” in Robot Ethics: The Ethical and Social Implication of Robotic, eds. P. Lin, K. Abney, and G. Bekey, The MIT Press, 2012
2. P. Lin and E. Selinger, “Inside Google’s Mysterious Ethics Board”, Fobes, Feb 3, 2014.
3. S. Russel, D. Dewey, and M. Tegmark, “Research Priorities for Robust and Beneficial Artificial Intelligence”, AI Magazine, Winter 2015.