중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
군사로봇과 분산된 책임
Level 10조회수616
2022-10-18 12:26

 
 

최근까지 인공지능 시대를 맞아 4차 산업혁명에 대한 논의가 유행했던 적이 있다. 그러나 더 긴급한 논의가 필요한 것은 어쩌면 4차 산업혁명이 아니라 ‘3차 군사혁명’일지 모른다. 화학과 전쟁이 만나 살상력이 비약적으로 상승한 계기를 1차 군사혁명이라 한다면, 핵무기의 개발과 사용이 전쟁의 판도를 바꿔 놓은 사건을 2차 군사혁명이라고 할 수 있을 것이다. 그렇다면 3차 군사혁명이라고 할 때 그 혁명의 주요동력은 무엇일까? 그것은 군사로봇, 즉 인공지능 기술이 적용된 로봇일 것이다. 군사로봇이야말로 3차 군사혁명의 핵심인 것이다.

군사로봇이라고 하지만 그것의 개념과 범위를 잡는 것은 쉽지 않다. 군사로봇도 공격용과 방어용으로 나뉘고, 또한 로봇의 자율성에도 정도 차이가 있기 때문이다. 가령 원격조종을 통해 작동하는 방어용 로봇의 경우에는 사실상 인간에 의해 통제되는 기존 무기와 다를 바 없기 때문에 별다른 문제를 일으키지는 않을 것이다. 그러나 모든 기술은 개발의 동기가 분명한 한 계속 발전하기 마련이다. 그리고 인공지능 기술이 적용된 군사로봇이 개발에는 다양한 동기들이 있다. 무엇보다 인간 대신에 군사로봇을 전장에 보냄으로써 병력의 수를 줄일 수 있다. 또한 인간이 수행하기 어렵거나 위험한 임무들, 가령 오염지역의 조사나 정찰, 폭파물의 설치나 제거 등을 군사로봇이 대신하게 함으로써 아군의 사상자를 감소시킬 수 있다. 또한 군사로봇을 통해 더 넓은 지역에 걸친 작전을 더 정교하고 효율적으로 수행할 수 있다. 이러한 현실적 동기들이 분명하기 때문에 앞으로 적어도 부분적인 자율성, 반자율성을 가진 군사로봇이 지속적으로 개발되고 사용되리라고 예측하는 것이 합리적일 것이다. 

그러나 군사로봇이 개발되고 사용되리라 예측하는 것과 그것이 옳은 일인지를 따져보는 것은 다른 일이다. 자율성을 가진 군사로봇이 얼마나 개연적인지를 떠나서, 과연 그런 것을 만들어도 되는지, 그것을 실제 전장에 투입해도 되는지를 따져봐야 한다. 군사로봇은 전쟁의 수행 양상과 책임의 문제와 관련된 매우 심각한 윤리적 문제를 제기한다. 아무리 전쟁이 현실의 문제라고 해도, 일부 비인도적인 무기에 대해서는 국제협약을 비롯한 여러 수단을 통해 제제가 가해지고 있다. 만약 유의미할 정도의 자율성을 가진 군사로봇의 개발과 사용이 비윤리적이라면, 설사 현실적인 동기가 충분하고 기술이 허용한다고 해도 그것을 규제해야 할 것이다. 실제로 군사로봇 연구로 유명한 토비 월쉬(Toby Walsh)는 국내에서 열린 한 컨퍼런스의 초청강연에서 ‘군사로봇이야말로 인공지능이 제기하는 거의 유일하게 실질적인 윤리적 문제’라는 취지의 발언을 한 바 있다. 그렇다면, 군사로봇의 개발과 사용은 윤리적인가? 

살상용 군사로봇의 개발과 사용에 대한 우려는 그저 기우가 아니다. 이미 2000년대 후반부터 군사로봇 개발을 적절히 규제하려는 국제적인 운동이 줄기차게 이어지고 있다. 앞서 언급한 월쉬가 이끄는 인공지능과 로봇공학의 영향 연구센터(Centre on Impact of AI and Robotics, CIAIR)는 2015년 7월과 2017년 8월 두 차례에 걸쳐 자율성을 가진 군사로봇의 개발에 반대하는 공개서한을 UN에 전달한 바 있다. 이러 흐름은 2018년에 있었던 KAIST 보이콧 사태에 까지 영향을 미친다. 2018년 4월 KAIST가 한화시스템과 함께 국방인공지능융합연구센터를 개소했다는 소식을 언론으로 접한 세계 각국의 인공지능 연구자들은 공개서한을 통해 KAIST에 대한 방문과 연구자 초빙, 연구 참여를 하지 않겠다는 전면적인 보이콧을 선언했다. 보이콧을 주도한 이는 역시 월쉬 교수였다. 이 사건은 세계 유수 언론을 통해 보도되었고, 결국 당시 KAIST의 신성철 총장이 나서서 KAIST의 연구가 ‘킬러로봇’과는 무관하며, 그런 위험에 대한 윤리적 고려 하에 이루어지고 있다는 취지의 성명을 발표함으로써 보이콧은 일단락된다. 이와 같은 일련의 사태들은 군사로봇이 제기하는 윤리적 문제가 이미 현실의 연구개발에 영향을 미치고 있음을 보여준다.  

군사로봇과 관련된 여러 윤리적 쟁점이 있겠지만, 가장 근본적인 문제는 전쟁에서 잘못된 결과가 나왔을 때 누가 그에 대해 책임을 져야 하는가일 것이다. 이에 대해 군사로봇의 사용은 누군가는 책임을 져야 할 사태에 대해 누구도 책임을 질 수 없도록 만들기 때문에 그 자체로 비윤리적이라는 주장이 있다. 군사로봇에 의해 민간인 오인사살과 과잉보복 등 잘못된 결과가 발생하더라도, 그 결과에 대해 로봇의 설계자도, 로봇의 사용한 지휘관도, 그리고 로봇 자신도 책임을 질 수 없으므로 결국 군사로봇의 사용은 그 자체로 비윤리적이라는 것이다. 설계상의 결함 때문에 그런 결과가 발생했다면 설계자에게 책임을 물을 수 있겠지만, 설계상의 결함 때문이 아니라면, 나아가 그런 결과를 설계자가 예측하거나 통제할 수 없었다면 설계자에게 책임을 묻는 것은 이치에 맞지 않아 보인다. 이는 지휘관의 경우에도 동일하게 적용된다. 비록 지휘관이 로봇에게 임무를 맡기기는 했지만, 로봇의 자율성으로 인해 그것의 행위를 예측하거나 통제할 수 없었다면, 군사로봇의 행위에 의한 결과에 지휘관의 책임을 묻는 것은 온당치 않아 보인다. 그렇다고 군사로봇에게 책임을 묻기도 어려워 보이는데, 왜냐하면 군사로봇이 처벌과 보상의 대상이 될 수 없어 보이기 때문이다. 책임을 질 수 있기 위해서는 일단 처벌이나 보상의 대상이 될 수 있어야 하는데, 그러기 위해서는 고통을 받거나 기쁨을 느낄 수 있는 능력이 있어야 한다. 고통스러워 하거나 기뻐하지 못하는 대상에게 처벌과 보상이란 애당초 무의미하기 때문이다. 그런데 고통이나 기쁨은 주관적인 느낌에 해당하며, 적어도 가까운 시일 내에 군사로봇이 그런 주관적인 느낌을 가지기는 어려워 보인다. 따라서 군사로봇을 처벌함으로써 책임을 지게 만들 수는 없다. 결국 군사로봇의 사용이 야기하는 잘못된 결과에 관해 누구도 책임질 수 없게 되는 책임 간극(responsibility gap)이 발생하게 된다.

이런 논증의 배후에는 것은 ‘완전히 예측하고 통제할 수 없는 것에 대해서는 어떤 책임도 질 수 없다’는 암묵적 가정이 깔려 있다. 일단 군사로봇이 도덕적 책임의 주체가 될 수 없음을 받아들이더라도, 그것을 설계한 설계자나 임무에 투입한 지휘관까지 완전히 책임을 면제받을 수 있을지는 그리 분명하지 않다. 사실 완전한 예측이나 통제가 불가능하다는 점에서 자율적인 행위자들의 행위에 대해 그 행위자가 아닌 다른 행위자들이 책임을 지는 경우는 흔하다. 대표적으로 하급자의 잘못에 대해 그를 관리감독해야 할 상급자들이 책임을 지는 경우다. 하급자는 상당한 자율성을 가지며, 상급자들이라고 해서 하급자의 일거수일투족을 일일이 예측하고 통제할 수는 없다. 그럼에도 불구하고 하급자가 사고를 쳤을 때 상급자들은 그에 대해 책임을 진다. 이 경우 상급자들이 ‘내가 한 일이 아니다’, ‘나는 어쩔 수 없었다’, 또는 ‘나는 그가 그럴 줄 몰랐다’고 하는 것은 그 말이 설사 사실이더라도 비겁한 변명이나 발뺌으로 여겨진다. 이런 사례가 보여주는 것은 어떤 일에 대한 책임이 단일 행위자에게만 깔끔하게 귀속되는 경우는 의외로 드물다는 것이다. 오히려 한 행위자의 행위로 인해 나쁜 결과가 발생되었더라도, 그 결과에 대한 책임은 여러 ‘관련자들’로 분산되는 경우가 대부분이다. 그렇다면 전쟁에서의 군사로봇의 사용에서도 마찬가지일 것이다. 즉 군사로봇의 사용은 책임 간극을 유발하는 게 아니라 분산된 책임(distributed responsibility)의 가능성을 시사한다. 군사로봇이 자신의 행위에 대해 책임을 질 만한 존재가 아니라 하더라도, 군사로봇의 설계자와 임무에 투입한 지휘관, 함께 임무를 수행한 인간 병사, 그리고 규제당국이 어떻게 책임을 나누어 질지에 대한 논의는 충분히 가능하다. 그러한 논의는 가능할 뿐만 아니라, 군사로봇이 활발하게 연구, 개발되고 있는 현재의 상황에 비추어볼 때 반드시 필요하다고 할 수 있다. 
 

문규민(중앙대학교 인문콘텐츠연구소 HK연구교수) 

중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED