중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
파우스트가 쥔 양날의 칼
Level 10조회수177
2022-08-29 14:55

<2022 인공지능인문학 추천도서 독후감 경연대회 일반부 수상작>  

* 

  한국사회에서 AI에 대한 쟁점이 첨예하게 현상화되기 시작한 기점은 아마도 알파고의 출현 이후일 것이다. 물론 그 이전에도 사물 인터넷 등 여러 인공지능적 방식이 일상적으로 쓰이고 있기는 했지만, 그것은 그저 취사선택할 수 있는 편리한 도구의 수준에만 머물렀을 뿐이다. 총과 칼과 같은 도구와 칫솔이나 지우개 같은 도구의 차이점은 누구나 알고 있다. 전자는 유용하고 어떤 면에서 반드시 필요하지만, 동시에 언제든 잔혹한 무기가 될 수 있다는 점에서 위험하다. 하지만 지우개나 칫솔 같은 것은 일상적으로 늘 사용하는 필수품인 동시에 유아들처럼 아직 판단력이 미숙한 존재가 아닌 이상 그것을 입에 넣어 삼키거나 하지는 않는다는 점에서 거의 위험하지 않다. 
  알파고의 출현이 불러온 쟁점은 바로 이런 인식과 관련되어 있다. 일종의 각성이랄까, 그 이전에는 컴퓨터 이상으로 매우 유용할 수 있는 도구일 것이라는 게 인공지능에 대한 일반인들의 생각이었다. 하지만 이제는 이러한 생각이 무지에서 비롯된 안일한 의식일 수도 있다는 비판적 경계론이 실제적 무게를 가지게 되었다. 반면, AI로 대표되는 ICT의 융합적 기제를 통해, 4차 산업혁명이라는 완전히 다른 차원의 발전과 번영이 시작될 것이라는 낙관론 역시 이러한 비관론에 팽팽히 맞서고 있다. 
  그렇다면 이를 단지 헤게모니의 싸움이라고 치부해야만 할까. 만일 그렇다고 여긴다면, 이는 매우 위험한 생각이다. 왜냐하면 우선 이런 편의적 사고방식의 이면에는 윤리적 성찰이 결여되어 있고, 유물론적인 맹신과 배금주의적인 욕망이 자리 잡고 때문이다. ‘윤리’, ‘도덕’과 같은 것을 우선시 여기는 태도를 두고 그저 구태로만 여기는 이들도 물론 있겠지만, 그렇다고 해서 이런 가치들을 과감히 거부하는 이들이 혁신적인 부류에 속한다고 단정 지을 수는 없다. 초지능적인 AI가 불러올 수 있는 여러 윤리적인 문제들을 우려하고 경계한 이들은 다름 아닌, 초기 이 기계 개발에 관여한 노버트 위너나 앨런 튜링과 같은, 당대 가장 혁신적인 과학자들이었다. 원자탄 개발의 이론적 토대를 마련한 아인슈타인 역시 평생 동안 핵무기 사용에 대한 반대를 피력해왔다. 
  18세기 후반 시작된 산업혁명과 그로 인한 과학과 기술 발전의 선순환은 오늘날 인류 보편이 역사상 가장 번영을 누리며 살 수 있게 해주었다. 이 물질적인 기반 덕분에 우리는 민주주의라는 정체(政體)에서 개인으로서의 권리를 누리며 살 수 있게 되었다. 앞으로 전개될 4차 혁명 역시 개인의 자유 보장과 인류의 영속적인 번영이라는 궁극적 목적에 부합되어야 한다. 그리고 이를 위해서 선행되어야 할 것 중 하나는 AI와 인간 사이의 관계 설정, 다시 말해 위계 설정일 것이다. 목적과 수단을 분명히 하는 것은 언제나 중요한 일이다. 물질과 부는 인간보다 우선시 될 수 없다. 그리고 이는 인공지능에도 똑같이 적용되어야 한다.

*

   『인공지능은 무엇이 되려 하는가』는 일종의 편저서이다. 인공지능의 가능성과 위험에 대해 과학자와 철학자, 윤리학자, 예술가, 과학사학자 등 각계의 지식인들이 가지는 여러 의견들을 모아 놓은 책이다. 이 의견들을 정리하는 데 있어 편저자인 존 브록만이 제시한 특정한 틀은 없다. 그는 그저 넓고 깊은 통찰력을 가진 각 분야의 지식인들의 의견들을 병렬적으로 제시해놓았을 뿐이다. 병렬적이라는 것은 직렬식의 순서 세우기가 아니라는 점에서 편견 없는 공정한 제시라고 볼 수 있고, 바로 이 점이 이 편저서가 제시되는 방식이라고 부를 수도 있을 것이다.
  하지만 이 단순하고 솔직한 목차와는 달리, 책의 내용을 읽어보면 누구나 두 가지의 상반된 입장을 발견하게 된다. 그리고 그것은 바로 이 글의 첫머리에서 제시한 쟁점과 곧 닿아 있다. 이 책 속에 수록된, AI의 미래에 대한 25명의 의견들은 일단, 공통의 나침반을 가지고 있다. 그것은 바로 1950년대 노버트 위너가 『인간의 인간적 활용』에서 예견한 기계 문명의 위험성에 대한 경고와 앨런 튜링이 수행한 튜링 테스트라는 유명한 실험이다. 이 25명의 전문가들은 이 서로 깊이 연관된 하나이면서 두 개인 나침반을 기준으로 AI의 미래에 대해 각자 나름의 해석을 내어 놓고 있다. 그런데 같은 기준점을 이렇게 다양하게 해석할 수 있다는 것, 또 그럼에도 그 해석들 사이에는 일맥상통하는 관련성이 있다는 것, 마지막으로 그 관련성들이 쟁점의 한복판에서 양극과 음극처럼 자기장을 만들어내고 있다는 건 참으로 흥미롭고 신기한 일이다. 
  우선, 노버트 위너는 과거 『인간의 인간적 활용』과 『사이버네틱스』를 통해 하나의 비관적인 전망을 제시했다. 그것은 바로 인간이 기계를 더 이상 제어할 수 없는 지경이 도래할 수도 있다는 다소 묵시론적인 예견이었다. 그가 활동할 당시는 2차 세계대전과 냉전이라는 거대한 역사적 배경이 자리 잡고 있었고, 이러한 사회적 상황 속에서 그는 수학자이자 과학자로서 그 상황에 적극 대처하고 있던 인물들 중 하나였다. 그렇기 때문에 그는 전체주의의 공포를 잘 알고 있었다. 내가 생각하기에 그는 홉스주의자였던 것 같다. 그렇기에 그는 인간의 이성을 존중하면서도 그 이면에 도사리고 있는 강한 리비도, 즉 권력욕을 상당히 경계를 했었던 것처럼 보인다. 그러므로 만약 인간의 지능을 모사한 기계가 인간 종(種)의 출현 이래로 누적된 엄청난 양의 데이터를 초인간적으로 처리하는 것 이상으로 진화를 한다면, 인간이 통제할 수 없는 지경에 이를 수도 있다는 건 논리적으로 상상 가능하다. 왜냐하면 인공지능은 인간을 모델로 만든 것이므로, 그것은 자신의 창조주의 모든 것을 그대로 모사하고 학습하며, 심지어 응용할 수도 있기 때문이다. 그렇다면 인간이 가진 파괴적인 면, 즉 지배하고자 하는 성향 역시 기계는 모사할 것이고, 결국 인공지능은 양날의 칼이 되고 말 것이다. 
이에 대해 다음과 같이 논박하는 사람이 있을 수도 있다. 기계란 애초에 어떤 특수한 목적에 따라 설계된 것이므로, 그 목적에 부합하는 방식으로 작동할 것이라고 말이다. 하지만 이에 대해 스튜어트 러셀은 다음과 같은 우려로서 반박한다. ‘인간처럼 고도의 지능을 가진 독립 개체는 항상 자신의 존재를 보존하고자 하며, 이 같은 성향은 자기보존 본능이나 생물 개념과는 그다지 관련성이 없다. 그저 개체가 죽으면 목적 역시 이룰 수 없기 때문에 그러한 것’1)이라고 말이다. 튜링 역시 초지능 기계에 스위치가 달려 있다면, 기계는 그것을 무력화하려 시도할 것이라고 언급한 적이 있다. 
  하지만 이러한 위너의 상상적 우려에 대해 대개의 사람들(이 책에 참여한 저자들을 포함해서)은 현실적 가능성이 낮다고 생각한다. 확실히 아직은 SF 영화에서나 볼 수 있는 픽션 같은 이야기이며, 아직은 확률이 낮은 가능성일 뿐이다. 이 책의 저자 중 한 사람인 세스 로이드는 로봇 청소기의 예를 드는데, 컴퓨터의 성능 향상과는 별개로 로봇 청소기는 아직도 식탁 다리와 같은 장애물을 넘어서지 못한다는 점에서 이는 매우 요원한 미래의 이야기일 뿐이라는 것이다. 하지만 위너가 제시한, 보다 현실적인 그리고 매우 유력할 수 있는 또 다른 가능성이 있다. 그리고 이것이 본 편저서의 지식인들이 진정 우려하는 비관적 전망이자 이 책의 실질적 나침반 중 하나이다. 그는 말한다. 
  “기계 자체는 무력하더라도 인간, 혹은 인간 집단이 다른 사람에 대한 통제권을 키우려 할 때 기계가 악용될 수 있다. 아니면 정치가들이 무의식적으로 인간 잠재력을 무시하는 정치기술을 사용해 대중을 조종하여 할 때 악용될지도 모른다.”2) 고 말이다.
  한편, 처음에 앨런 튜링이 의도한 튜링 테스트의 요지는 다음과 같다. 컴퓨터와 정해진 일정한 범위의 대화를 나누는 실험을 할 때, 컴퓨터가 보이는 반응이 보통 인간이 보이는 반응과 거의 차이가 없다면, 그 컴퓨터는 지능을 가진 것으로 간주할 수 있다는 것이다. 매우 명료해 보이지만, 현실적 가능성은 낮은 아이디어이다. 왜냐하면 인간의 인식과 자극 그리고 행동의 메커니즘은 생각만큼 자명하지 않기 때문이다. 인간의 심리와 정서 그리고 의식, 다시 말해 인간의 정신과 행동, 그리고 그 관계가 입력과 알고리즘 그리고 출력이라는 형태로 매뉴얼화할 수 있다면, 신경 병리학이나 정신과와 관련된 질병들에 수없이 붙어 있는 ‘증후군’이라는 말은 이미 폐어(廢語)가 되어 있었을 것이다. 
  물리학자이자 철학자인 주디아 펄이 제시하는 현재의 AI가 가진 딥러닝 기술의 한계 역시 주목할 만하다. 오늘날 인공지능의 학습과 처리 능력은 분명 괄목상대할 만한 것이지만, 여전히 인간의 그것에는 미치지 못한다는 게 그녀의 생각이다. 왜냐하면 기계에게는 인간이 가지고 있는 ‘심적 표상’이 없기 때문이다. 나는 이 용어를 인간의 오성이 외부로부터의 구체적인 감각적 인식 없이 내적인 상상력을 표상하는 힘, 즉 창의력으로 이해했다. 그리고 인간의 창의력은 “만약 과정을 다르게 한다면 어떻게 될까?”3)와 같은 조건문으로써 표현되는 가정법적 상상력에서 비롯되지만, 기계는 이러한 질문에 대한 답을 표상하지는 못한다. 
  또한 그녀가 인간지능의 또 다른 질적 특성으로 제시하는, “만약 내가 이러저러~하다면?”4)과 같은 중재intervention적인 질문에 대한 표상 능력 속에는 인간의 도덕성의 단초, 즉 ‘역지사지’의 상상력이 수반되어 있다고 생각한다. 왜냐하면 우리는 “만약 내가 너의 입장이었다면, 어떠했을까?”하는 질문을 스스로에게 던지며, 타인의 고통에 공감을 하기 때문이다. 그렇다면 이는 분명 기계는 가질 수 없는 능력이라고 생각을 한다. 왜냐하면 이러한 상상력은 단지 이성적인 능력뿐만 아니라, 감성, 그리고 심장의 고통, 눈물 등의 감각적 반응과 종합적으로 연계된 것이기 때문이다. 우리가 이런 공감을 어떻게 표현하는지를 상기해보면, 각자의 표현이 다를 뿐만 아니라, 대개 비유적 표현을 사용한다. 즉, ‘형용하기가 힘들다는 것이다.’ 그러므로 이를 액면 그대로 물질적 혹은 디지털화된 데이터로 남기는 것은 불가능해 보인다.
  이처럼 위너가 우려한 통제 불가능한 인공지능의 출현 가능성에 대한 반례는 아직 많다. 또한 설사 기계가 인간 의식의 메커니즘을 완전히 습득한다고 할지라도 불완전함은 여전히 남아 있다. 왜냐하면 우리도 아직 잘 모르는 또 다른 의식의 영역, 즉 무의식이 남아 있기 때문이다. 과연 기계가 인간처럼 꿈을 꿀 수 있을까. 인간이 수면 중 꾸는 꿈에 대한 데이터를 논리적으로 알고리즘화 할 수 있을까. 이 영역들은 죽음만큼이나 직접 경험되지 않는 것이기에 인간인 우리도 잘 알지 못한다. 그러므로 원칙적으로 AI가 인간만큼 자율적인 존재가 될 수 있다는 대니얼 C 데닛의 말은 충분히 납득이 가지 않는다. 하지만 미숙한 나의 이해를 넘어 원칙적으로 그것이 가능하다는 것이 정말 사실이라면, 그의 경고대로 우리는 AI가 의식을 가지지 않도록, 애초의 목적 그대로 유용한 도구로서 충실할 수 있도록 매우 조심해야 할 것이다. 왜냐하면, 인간을 그대로 닮은 개체가, 인간과는 달리 ‘자연적 필멸성을 가지지 않고 슈퍼맨처럼 강하다면,’ 5)그것은 분명 도덕적이기보다는 매우 이기적인 행동을 할 것이 분명하기 때문이다. 그리고 그 힘은 분명 파국적일 것이다.

*

  AI가 무엇이 되려 하든지 간에 아직은 그 키가 우리의 손에 달려 있다. 즉, 우리의 선택이 인공지능의 미래를 좌우하게 된다는 말이다. 그렇다면 우리는 왜 AI를 개발하려 하는지, 왜 AI가 필요한지를 늘 고민해보기를 게을리 해서는 안 된다. 하지만 사람들에게 이에 대한 질문을 던진다면, 대개가 그저 그것이 유용하기 때문이라는 정도의 대답 밖에는 못 할 것이다. 왜냐하면 그게 사실이고, 그 이상은 잘 고민해본 적이 없기 때문이다. 당장의 유용성은 우리의 눈을 멀게 만들고, 눈에 보이지 않는 것은 망각되고 잊힌다. 이것 역시 인간의 습성 중 하나이다. 하지만 우리가 이렇게 방심하고 있는 사이, 소수의 매우 능력 있고, 집요하지만 동시에 무자비한 누군가, 혹은 체제는 이 기술이 가진 가능성을 통찰하고 있을 것이다. 인간은 남의 고통을 보며 눈물을 흘릴 만큼 도덕적이지만, 동시에 그것이 자신의 이익과 상치되면 그 눈물을 쉽게 거두어버리는 존재이기도 하다. 우리는 우리가 가진 능력의 양면성을 늘 자각하고 있어야만 한다.
  핵무기가 무서운 이유는 그것의 가공할만한 파괴력 때문이기도 하지만, 누구나 가질 수 있다면 그것을 가지려 한다는 것에 있다. 즉, 그것의 위험은 무기 자체보다는 그것을 누가, 어떻게, 어떤 목적으로 사용하느냐에 달린 것이다. AI 역시 그러하다. 그것이 인간과 같아지면 같아질수록 우리는 그것이 가진 유용함의 범위를 분명히 한정지을 수 있어야만 한다. 그것은 인간 보편을 위해 필요한 도구이어야만하지, 인간을 넘어선 도구, 어떤 누군가가 다른 누군가를 통제하기 위한 도구가 되어서는 안 될 것이다.

필자: 김기영

----------------------------------------------------------------------------------------------------------------------------
1) 스티븐 핑거 외, 『인공지능은 무엇이 되려 하는가』, 존 브록만 편저, 김보은 역, 프시케의 숲, 2022, p. 62. 
2)  같은 책, p.90.
3)  같은 책, p.51. 
4)  같은 책, p.51. 
5)  같은 책, p.100. 

중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED