중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
인공지능에 도덕엔진을 탑재하는 법 (정웅일 저. 이시훈 역, 클라우드나인)
Level 10조회수342
2021-04-20 13:42

 
  이 책은 “인공지능에 도덕 엔진을 탑재하는 법”이라는 제목으로 주로 소개되고 있지만, 부가된 타이틀이 더 있다. 소개하자면, “-인공지능에 살해당하지 않기 위해- 인공지능에 도덕 엔진을 탑재하는 법”이 완전한 제목이라고 할 수 있다. “살해”라는 단어가 자칫 섬뜩하게 들릴 수 있겠지만 책은 섬뜩함 내지 혐오감을 유발하는 내용으로 구성되기보단 오히려 흥미진진하고 명쾌하다. 특히 저자인 정웅일 교수는 “니 편, 내 편” 편 가르기를 통해 인공지능의 도덕성을 고차원적인 수준으로 끌어올릴 수 있음을 책 전반에 걸쳐 논증하고 있는데, 이러한 주장 자체가 독자에게는 무척 창의적이고 흥미로운 것이다. 또한 저자가 ‘인간’을 재정의하는 대목은, 점잖은 표현은 아니나, “빵”하고 웃음이 터질 정도로 재미나고 공감이 간다. 그럼에도 불구하고 정교수 역시 책의 말미 모든 지식에는 한계가 있음을 언급한다.

  이 책은 인공지능에 탑재하여야 할 인간 도덕성의 본질을 단순명료하게 이해하도록 도움을 준다. 대학생들조차 도덕성의 뜻을 잘 모르는 경우가 많아, 처음에는 이러한 현실에 적잖은 충격을 받았으나, 이제는 도덕성 발달 부분을 강의할 때는 제일 먼저 도덕성의 사전적 정의를 알려주는 것으로 시작할 정도로 익숙해졌다. 인공지능이 흉내 내는 것은 결국 인간이기 때문에, 인공지능의 도덕성을 이해하기 위해서는 먼저 인간의 도덕성을 철저하게 이해하여야 한다. 그러한 면에서 이 책은 인간의 도덕성을 최대한 단순명료하게 설명하고 있다는 점이 매력적이다. 전반적으로 전문 용어를 거의 찾아보기 힘들 정도로 평이한 용어로 서술되고 있으며, 간결한 논리 구조로 도덕성을 구조화하고 있어서 성인뿐 아니라 청소년이 읽기에도 적합해 보인다. 청소년 자녀를 둔 부모라면 부모-자녀 간 책 내용을 논박하는 활동도 의미 있을 것이다. 

  책의 내용을 더 풍부하게 받아들이고 싶거나 비판적인 관점에서 인공지능과 인간의 도덕성을 통합적으로 이해하고 싶다면 콜버그의 도덕성 발달단계를 경험하고(구글이나 유투브 등 여러 검색 매체에서 쉽게 찾을 수 있다. 특히 콜버그의 하인츠 딜레마 실험을 찾아볼 것을 추천한다), 이 책을 읽는다면 저자의 사고를 더 넓은 틀에서 이해할 수 있을 것이다. 콜버그 이론은 반복 검증된 이론이니만큼 콜버그의 이론이 더욱 견고하며 구체적이다. 하지만 정교수의 실험결과는 독창적임에도 불구하고 놀라울 만큼 콜버그의 연구결과와 유사하다. 첫째는, 도덕적 차원 3~4에 해당하는 사람들의 비율이다. 세속화한 사회에서 콜버그가 이야기하는 고차원적인 양심에 지탱하여 살아가기란 힘들다. 왜냐하면 통속적인 법과 규범에 의존해서 살아갈 때 더 많은 보상을 받고 더 적게 처벌을 받을 수 있기 때문이며 양심에 따르는 행동은 종종 희생을 수반한다. 즉 처벌이 뒤따를 수 있다. 동화에서는 내 도끼가 은도끼였다고 솔직히 말하면 금도끼도 얻지만, 현실에선 (금도끼라고 거짓말했으면 금도끼도 얻을 수 있었는데) 은도끼만 얻을 수 있다. 그래서인지 콜버그 역시 후인습적 수준에까지 도덕성이 성숙한 사람은 극소수에 불과함을 이야기하였다.

  둘째는, 도덕성의 모호함과 이중성이다. 콜버그는 이를 “양심”이라고 언급하였다. 양심이 발달한 사람은 도덕성이 유연하다. “모 아니면 도”식의 경직된 도덕성을 보이지 않는다. 인공지능이 인간을 완전히 모사하기가 어려운 이유가 바로 여기 있을 것이다. 우리는 기쁠 때도 웃고 슬플 때도 웃고 화가 나서 웃기도 한다. 이와 유사하게, 똑같은 행동과 사고이지만 맥락에 따라 그 행동과 사고의 옳고 그름이 달라진다. 맥락에 따라 옳고 그름을 판단할 수 있는 상위의 도덕성이 바로 양심이다. 정교수는 이를 “양심”이라고 지칭하지는 않지만, 개별규율과 공통규율을 내재화하면서 상황에 따라 개별규율을 초월하여 공통규율을 따른다는 설명은 콜버그의 양심과 유사하다. 몇 년 전, 뉴스에서 대대적으로 “투스카니 의인” 기사가 현대판 금도끼와 은도끼로 보도된 적이 있다(관련 기사는 구글 혹은 유튜브에서 쉽게 찾아볼 수 있다). 요지는 한 중년 남성이 고속도로에서 본인 차를 고의로 멈춤으로써, 뒤이은 이상 운전자의 차가 본인의 차를 들이받게 하여, 이상 운전차량을 중지시킨 사건이 있었다. 당시 이상 운전자는 고령의 뇌질환으로 순간 의식이 불명된 상태였다고 한다. 이 투스카니 의인은 교통법규를 고의로 위반하였다. 그렇다면 도덕성이 없는 사람인가? 그렇지 않다. 콜버그에 의하면 양심이 발달한 사람, 정교수에 의하면 4단계 도덕성을 보유한 사람이다. 불행하게도 이러한 사람의 비율은 드물지만 말이다.

  이 책에서 소개된 도덕성의 개념과 실험 패러다임은 심리학 연구에서 자주 등장해왔기에 관련 연구결과들이 상당수 존재한다. 그리고 그러한 선행 연구에 미루어볼 때 이 책에서 소개된 도덕성의 구성개념과 실험패러다임에는 한계가 있다. 그럼에도 불구하고 이 책의 내용에 전적으로 동의하고 이 책이 읽을 만한 가치가 있다고 느끼는 이유는, 바로 인공지능에 탑재해야 하는 도덕성이 반드시 고차원적인 도덕성이어야만 한다는 주장 때문이다. 흔히 인공지능 연구자들은 인공지능이 인간을 모사하기 때문에, 인간에게 선함과 추악함이 공존한다면 인공지능 역시 그러한 모습을 반영할 수밖에 없다고 이야기한다. 그리고 그들은 인간의 추악함을 닮은 로봇이 인간을 해칠까 두려워서 로봇에게 도덕성을 탑재할 방안을 연구하고자 한다. 그러나 도덕성의 추상적인 개념에 사로잡힌 전문가들은 측정 가능한 도덕성에 이르는 길을 쉽사리 찾지 못하고 있다(관련 심리학 실험패러다임은 많이 존재하는데 아직 관련 심리학자들이 인공지능에 관심이 부족한 듯하다). 그러한 시점에 이 책은 너무나 단순명료하게 도덕성을 개념화, 알고리즘화하여 제시한다. 그리고 인간들조차 보유하기 어려운 고차원적인 도덕성을 왜 인공지능에게 탑재해야만 하는지에 대하여 더 이상 토를 달 수 없는 직관적인 이유를 던져준다. 바로 우리가 “인공지능에 살해당하지 않기 위해”서라고 말이다. 

주해원(안동대학교 교수)


중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED