중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
2024 인공지능인문학 추천도서 독후감 경연대회 입상작 (대학일반부)
Level 10조회수31
2024-07-02 14:32

AI는 법적 책임을 질 수 있을까? 

 ‘인공지능’이라는 단어는 최근에 만들어진 신조어는 아니다. 기억을 거슬러 올라가보면, 내가 어린 시절을 보냈던 90년대에도 이 말은 종종 쓰였었다. TV 전자제품 광고만 봐도‘인공지능’이라는 타이틀이 많이 달렸었던 기억이 난다. 우리 집 TV와 VHS 플레이어에도 이 말이 버젓이 붙어 있었다. 또한 <전격 Z 작전> 인가 뭔가 하는 제목의 미국 장편 TV시리즈물이 매주 토요일 오후마다 방영되었던 적도 있었다. 여기서‘Z’이 지칭하는 것은 아마도 내 기억이 틀리지 않다면, 인간처럼 말도 하고, 스스로 판단해서 움직일 수 있는 자동차였다. 즉, ‘Z’이라는 건, 자동차의 이름이었던 것이다. 이‘Z’은 지금 기준으로 하면, 자율주행 자동차의 효시(嚆矢)라고 할 수 있다. 그 당시 사람들이 이 자동차에 대해 가지고 있던 로망은 그야말로 환상, 그 자체였다. 특히 내 또래 남자아이들은 이 드라마, 정확히 말하자면 그 간지가 좔좔 흐르던 날렵한 흑마 같은 외관의 자율주행 자동차에 열광을 했다. 

  당시에는 그저 꿈같은 이야기였지만, 이제는 이미 상용화된 자율주행 자동차를 볼 때마다 나는 이 드라마가 가끔 떠오르면서, ‘상전벽해(桑田碧海)’라는 말을 리얼하게 실감하고 있다. 그렇다. 나는 이렇게 시대의 패러다임이 그 어느 때보다 다이나믹하게 시시각각 변하는 때에 태어나고, 성장하며, 또 이 정신 없는 일련의 변화들을 매우 면밀하게 경험하는 기회를 갖게 된 세대에 속해 있다. 그래서 그런지 시대의 변화를 이끌었던 주체가 온전히‘사람’이었던 것을 직접 보고 경험한 세대는 내가 속한 나이대가 마지막인 것만 같은 기분이 들기도 한다. 오늘날의 변화는 컴퓨터의 속도가 진화하는 것만큼이나 점점 빨라지지만, 인간은 이제 물리적으로 이 속도를 이끄는 것이 아닌, ‘따라가는’위치에 놓이는 것만 같은 건 단순한 기우일까. 이제는 운전도 사람이 아닌 기계가 스스로 하는 시대가 되었다. 이건 단순히 세탁기가 생기고, 진공청소기가 생기던 것과는 결을 상당히 달리한다. 말하자면, 정말 인간은 아무 것도 안 해도 되는 시기가 시작된 것이다. 하지만 아무 것도 안 한다는 것은 동시에 ‘주도권’을 잃을 수도 있다는 것을 뜻한다. 내가 다소 두려운 것은 바로 이 점이다. 

  주도권을 유지하면서 말 그대로 AI를 ‘노동하는 기계’로서 철저히 모니터링하는 관리․감독권을 인간이 안정적으로 독점할 수 있을까 하는 걱정은 이 시기에 충분히 할 법할 걱정이며, 이제는 반드시 고민해봐야만 할 문제라고 생각한다. ‘로봇’의 어원은 본래 체코어로 ‘노동’을 의미하는‘Robota’라는 것은 익히 알려진 사실이다. 이 말이 지금의‘로봇’으로 고유명사화 될 수 있었던 것은 체코의 어떤 소설가가 쓴 공상과학소설에 등장한‘일하는 기계’를 지칭하기 위한 이름으로 ‘Robota’라는 말을 차용했기 때문인 것이다. 하지만 오늘날도 여전히 이와 같은 의미로 우리가‘로봇’이라는 말을 쓰고 있다는 의견에 동의하는 사람은 이제 별로 없을 것이다. 이제 우리는‘로봇’이라는 말을 들으면 자연히 AI를 연상하게 된다. 

  이와 관련해서 이 책은 매우 모범적인 사례라는 생각이 든다. 왜냐하면 책의 논의를 전개하는 순서가 기본에 충실하기 때문이다. AI라는 시대의 화두와 관련해서 많은 책들이 계속해서 시중에 나오고 있지만, 정작 AI가 무엇인지를 명확히 정의를 한 뒤에 논의를 시작하는 책은 별로 많지 않았다. 이는 아마도 지금도 AI가 끝없이 진화하고 있기 때문이겠지만, 그럼에도 기본적인 큰 틀의 정의는 분명 필요하다. 그렇지 않으면, 우리는 우리가 지금 상대해야 할 것이 무엇인지에 대한 윤곽도 잘 모른 채, 눈 뜬 장님처럼 발생 가능한 문제를 논하고, 해결책을 모색하는 꼴이 되기 때문이다. 이 책의 저자인 제이콥 터너Jacob Turner는 AI에 대해 다음과 같이 정의한다.

인공지능은 평가절차에 의해 선택을 하는 비자연적인 개체의 능력이다.  

그리고 그는 덧붙여 “로봇이란, (이러한 정의에 따르는) 인공지능을 이용한 물리적 개체”라고 정의 내린다. 또한 이 문장에 포함된 키워드들(인공, 지능, 평가절차, 선택, 비자연)을 이 책에서는 어떠한 의미로 사용하고 있는지를 명확히 설명한다.  

첫째, ‘지능’은‘선택하는 능력’을 의미한다. 

둘째, ‘인공’이란, ‘비자연’과 결부해서 이해되어야 하는데, 그는 ‘인공’이라는 말 속에 내포된 설계자로서의 인간의 경향성을 최대한 배제해야 할 필요성에 따라 이 말의 의미를‘인간이 만든’이라는 뜻보다‘비자연’이라는 뜻으로 이해하는 것을 선호한다. 그의 이런 의도는 분명 합리적이라고 생각한다. 왜냐하면 이제 인공지능은 단순히 노동하는 기계로만 볼 수 없고, 스스로 발전하는 기계에 가까워지고 있기 때문이다. 

세 번째, ‘선택’의 의미에 대해서 터너는 자율Autonomy와 자동Automation의 대조를 통해 설명한다. 이를 위해 그는 검색 엔진의 사례를 예로 든다. 즉, 검색 엔진에게 사람이 질문을 던지면, 질문자는 분명 그 챗 GPT가 작동을 하는데 한 원인으로서의 영향을 주었고, 질문자의 과거 검색 히스토리나 나이대, 사는 지역 등을 토대로 질문자의 선호를 검색의 결과물로서 고려 할 수도 있다. 하지만 그 결과물들 중에서 어떤 것을‘선택’할지는 검색 엔진의 몫으로 남는다. 분명 이는 자율적인 것이지, 자동적인 것은 아니다.

네 번째, ‘평가절차’라는 것은, 책 속에 그가 쓴 내용 그대로를 옮겨보자면, “결론에 이르기 전 원칙들을 서로 재보는 것이다.”이 말을 이해하기 위해서는 원칙과 규칙의 차이를 알아야만 한다. 규칙은‘All or Nothing’의 식이다. 즉 그 자체로 매우 결론적이라는 말이다. 하지만 원칙은 정당화를 위한 기본적인 틀로서 작용하기에 여러 선택들 중 어느 것이 더 낫고, 어느 것이 덜 나으며, 어느 것이 최적이고 어느 것이 최악인지를 평가하는“비중”을 가진 것을 의미한다. 그렇기에 인공지능이 이런 평가절차에 의한 자율적인 선택을 할 수 있는 능력을 가진 개체라면, 이는 그저 입력과 출력 알고리즘으로 인간의 명령을 따르는 단순한 로봇이라고 볼 수 없다. 

 이 면밀한 정의들에서 특히 나의 관심을 끈 것은‘선택’과‘평가절차’에 관한 것이었다. 장차 인공지능으로 인해 발생할 수 있는, 또한 그것이 거의 필연적으로 여겨지는 혼란들 중에서 내가 가장 관심이 있는 것은 바로 윤리적인 문제와 관련된 것들이기 때문이다. 그리고 이는 터너 역시 그러하다. 단지 차이가 있다면, 그는 법률가이므로, 이 문제를 보다 현실적이고 법제적인 입장에서 그 범위를 명확히 하고, 보다 실제적인 방안을 제시하고 있다는 점이다. 그런 점에서 이 책은 단순한 AI의 문제뿐만 아니라, 법제가 기능하는 기본적인 방식에 대해서도 배울 수 있다는 점에서 매우 도움이 되었다. 

  그의 정의대로 AI가 스스로 자율적인 선택을 할 줄 아는 존재로 진화한다는 것을 우리는 막연한 가능성으로만 생각해서는 안 된다. 왜냐하면‘스스로 자율적인 선택’을 할 줄 안다는 것은, 유비적으로 인간의‘자유의지’와 같은 것이기 때문이다. 터너에 따르면, 지금의 법제의 기본은 인간의 자유의지에 대한 존중을 헌법적인 토대로서 깔고 있는 것에서부터 시작된다. 이를 설명하기 위해 그는 AI이외에도 인간하고 밀접하게 관련되고, 인간을 위해 노동을 한 개체들에 대한 법제의 역사를 소개한다. 이런 것에는 회사, 국가, 동물, 심지어 신(神) 개념1)도 있다. 하지만 이 중 그 어느 것도 법적 인과 관계의 측면에서 정의된‘자유의지’로 간주할 수 있는 조건을 완전히 충족하지 못하기에 AI만큼 크게 문제가 되지는 않는다. 이 조건은 바로 법적 에이전트(動因)가 임의로 또는 신중하게 행동을 하거나 하지 않았는지 여부 그리고 법적 에이전트가 그런 행위를 하거나 하지 않았을 때 발생할 수 있는 결과를 미리 알았거나 혹은 알았어야 하는지 여부 등을 의미한다. 터너에 따르면, 이런 조건들을 엄격히 적용했을 때 법적 에이전트가 될 수 있는 대상은 오직 인간만이 유일하지만, AI의 발전은 이러한 인간의 독점을 약화시킬 수 있다고 우려한다. 

  윤리학에서 자유의지가 중요한 이유는 그것이 인간의 도덕적 선택의 근거인 동시에 도덕적 책임의 이유이기도 하기 때문이다. 이와 관련해서 유명한 사고실험의 예로 ‘열차 문제Trolley Problem’라는 것이 있다. 이는 마이클 샌덜이 자신의 유명한 저서 <정의란 무엇인가>에서도 다루고 있는 문제로서 자유의지에 따른 도덕적 판단과 그에 대한 책임의 문제를 다루고 있는 사고실험이다. 이 문제의 내용은 익히 잘 알려져 있는데, 예를 들면 이런 것이다. 기차의 레일이 두 개가 있는데 한 쪽에는 사람이 한 명이 있고, 다른 한 쪽에는 사람이 그보다 많이, 예를 들어 5명 정도가 있다. 그런데 그 기차는 이 사람들이 피할 수 있기도 전에 그들을 치고 지나갈 수밖에 없는 속도로 달리고 있다. 그럴 경우 두 레일 중 어느 것을 선택해야 하는가라는 게 이 사고실험의 요지이다. 

  인간의 자유의지와 관련했을 때는 이 문제는 크게 공리주의적 접근, 칸트주의적인 접근으로 나뉜다. 간단히 말해 전자는 다섯 명이 죽는 것보다는 한 명이 죽는 게 더 사회적 효용이 크므로 더 낫다는 입장이고, 후자는 개개인의 존엄성에 최대의 방점을 두는 입장이다. 터너가 인용하고 있는 독일의‘자율 운행 차량에 적용 가능한 윤리 규정 모음’은 칸트주의적 입장을 대변하고 있는 대표 사례이다.

  그렇다면 AI의 경우에는 이 문제를 어떻게 적용해야 하는가. 인간의‘자유의지’와 유사한“평가절차에 의해 자율적으로 선택할 수 있는”능력을 가진 것으로 간주 가능한 AI를 우리는 이미 경험하고 있다. 바로 자율주행 자동차가 그것이다. 이런 AI 자동차가‘열차 문제’와 같은 상황에 봉착했다고 해보자. 이와 관련해 터너는, ‘어린이가 갑자기 도로에 뛰어들었을 때 인공지능 차가 그 아이를 치어야 하나? 아니면 그 아이를 피하기 위해 주변 장애물을 들이받아 그 옆을 지나가던 행인을 사망하게 해야 하나?’라는 실제적으로 충분히 일어날 수 있을 법한 예를 제시한다. 또한 만약 그 행인이 범죄인이라면 그 경우에는 도덕적 판단, 나아가 법제적 판단을 어떻게 적용해야 하는가 하는 질문도 던진다. 만약 이 차가 자율주행 차가 아니고, 운전자가 사람인 경우였다면, 이 사람에 대해 법적 에이전트로 보는 것에는 이견이 없으므로, 그가 그 순간 내린 선택에 대해 공리적 혹은 칸트적 판단을 내리는 것 자체에 대해 사회적 동의가 필요할 까닭은 없을 것이다. 하지만 자율주행 차량의 경우는 어떠할까. 이 경우 선택은 분명은 AI가 내린 것이다. 그러므로 우리는 그 AI에게 도덕적 그리고 법적 책임을 물을 수 있을까. 그 책임이라는 것은 어쩔 수 없이 형법적인 처벌과 민사적인 손해 배상의 형태로 나타날 수밖에 없는데, 이 경우 AI는 인간과 같이 형을 살 수도 없고, 배상을 할 수도 없다. 왜냐하면 인간이 아니기 때문이다. 그렇다면 이 책임을 누군가 대신 부담해야 하는데 그것은 그 AI를 개발한 사람 혹은 사람들일 것이다. 하지만 그들이 만약 비싼 변호사를 써서, 그 선택은 AI가 자발적으로 내린 것이기에, 이들에게는 도덕적 그리고 나아가 법적인 책임을 물을 직접적인 원인이 없다고 한다면 어떻게 해야 할까. 이 AI를 개발한 사람이 당신이므로 당신이 책임을 져야 한다고 성토를 해야 할까. 하지만 이와 관련해서 터너는 이는‘사실적 원인’일 수는 있지만‘법적 원인’일 수는 없다는 것을 분명히 한다. 이 두 원인을 구별하는 것은 바로‘근접성’이다. 즉, 사실적 원인에 따라 법적인 판단을 하게 되면, 어떤 범죄자가 있는데, 그로 인한 피해를 구제하기 위해 원인을 따지다보면, 그의 부모, 조부모, 증조부모까지 거슬러 올라가게 된다. 그들이 없었다면, 저 범죄자가 태어나지 않았을 것이기 때문이다. 하지만 이는 분명 과도한 적용이다. 

  <로봇 법규>는 이처럼 이 시점에서 우리가 반드시 고찰하고 준비해야 할 문제를 상기시켜주고 있다. 변화와 발전은 분명 좋은 것이지만, 그 만큼 우리가 예측하지 못하는 변수도 많이 발생한다. 이 변수들을 예상 가능한 함수들로 만들고 면밀히 대비를 하면 할수록 발전은 더욱 긍정적인 것이 됨은 당연하다. 그런 의미에서 이 책이 시사하고 있는 바는 매우 중요하다고 생각한다. 앞으로도 이런 책이 많이 소개되어, AI와의 공존이 이미 시작된 현재와 미래를 위해 더 나은 대비가 이루어질 수 있었으면 좋겠다. 

김기영 (프리랜서)

​____________________

1) 단, 이는 터너가 예시로 들고 있는 것들을 볼 때, 기독교적인 신이 아닌, 일본의 신토와 같은 애니미즘의 범주의 속한 것만을 의미하는 듯하다.  

첨부파일8946074744_1.jpg (34.5KB)
중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED