기술 문명에 대한 부푼 기대, 또 두려움은 이에 대한 사실적 이해의 무관심과 부족에서 비롯한 경우가 많다. 인공지능을 보는 지금의 우리가 딱 그런 모양이다. 필자와 같은 인문학자는 늘 상 기계, 기술을 포함한 자기 주변의 모든 것에 관심을 갖고 이러쿵저러쿵 말을 늘어 놓지만, 기실 사실적 이해와 탐구는 기술과 서비스를 마주하는 대중 소비자로서의 나, 그리고 그것이 갖는 의미를 탐구하고 가치물음을 던지는 인문학자의 주요 과업이라고 할 수 는 없다. 어쩌면 그러기에 필자 같은 사람은 더 쉽게 부풀려 말을 하고 더 쉽게 손사래를 치며 겁을 내는지도 모르겠다. 물론 인문학자에게도 이러한 사실적 지식이 풍부하면 풍부할수록 그들이 수행하는 본질적 탐구의 수월성을 높이는데 많은 도움이 되겠지만, 그것이 곧 주된 과제라고 하는 것은 일종의 학제 간 월권이리라. 요컨대 대상에 대한 사실 이해는 인문학적 탐구의 필요조건이지만 충분조건은 아니다. 그러나 현재의 관점에서 기술 문명의 끝점에 서 있다고 평가할 수 있는 인공지능, 구체적으로 말하자면 기계학습 인공지능을 논의의 대상으로 한다면 사태는 달라진다. 소위 블랙박스로 묘사되는 딥 러닝 인공지능에 대한 온전한 사실적 이해는 - 현재의 기술로는 - 원칙적으로 불가능하기 때문이다. 그렇기 때문에 인공지능 기술과 관련한 기대와 두려움은 필요이상으로 부푼 것이거나 막연한 것이 아니다. 오히려 이는 인문학자에게나 공학자에게나 대중에게나 모두 똑같이 당연한 것일 수 있다. 한편 강력한 활용 도구에 대한 두려움은 공학자에게는 곧장 풀어야할 숙제가 되어 버린다. 지금 딥러닝 인공지능이 봉착한 숙제가 바로 이것이다. 기술적 수월성의 잠재성을 끊임없이 현실화 시켜야 하는 지상명령을 갖고 있는 기술공학의 윤리강령은 설명의 어려움으로 인해, 발전의 생장점을 거세하고 운신의 폭을 좁혀야만 하는 이 시국으로 인해 무색해져 버렸다. 바로 이 숙제 때문에 설명가능한 인공지능(eXplanbale Artificial Intelligence)의 필요성은 대두되고 있고 미 국방부의 연구 기관인 고등연구계획국(DARPA)을 비롯한 많은 연구소에서 이 연구에 주력하고 있다. 설명가능한 인공지능(XAI)은 더 좋은 인공지능의 다음 단계인 것이다. 그렇기 때문에 여기서 ‘좋음’의 의미는 신뢰하여 사용할 수 있다는 것이다. 그러나 한번만 더 생각해 보면 여기서 ‘설명가능한 인공지능’이 우리에게 주는 설명적 과제는 간단하지 않다. 실타래처럼 얽혀 있는 이 과제를 풀기위해서는 ‘설명가능한’ 이라는 말의 의미에 대한 입체적인 접근이 필요하다. 필자는 이 과제를 주체물음과 대상물음으로 양분한다. 주체물음: 설명의 주체는 누구인가? a)인공지능이 우리에게 자신에 대해서 설명하는 것인가? 아니면 b)그 인공지능의 작동원리에 대해 인간이 다른 이에게 설명을 하는 것인가? 대상물음: 설명되어야 할 대상은 어떤 것인가? c)인공지능의 판단 프로세스에 대한 수학적 설명인가? 아니면 d)내려진 판단에 대한 자연어로 된 친절한 설명인가? 진행되고 있는 XAI 프로젝트 주장의 속내를 잘 들여다보면, 주체물음의 a)와 대상물음의 d)는 연결된다. 예를 들어 DARPA에서 제시한 설명모델에 따르면, XAI는 고양이 사진을 판별한 이유에 대한 설명을 사용자가 마주하는 모니터(인터페이스)에 제시하게 될 것인데, 그 내용은 털이 있기 때문, 귀가 있기 때문 등이다. 한편 b)와 c)도 연결된다. 판단 프로세스에 대한 수학적 설명은 인간이 인공지능을 이해하는 것이고 이를 통해 설명을 하는 것이기 때문이다. 이 둘 중 어떤 것이 설명가능한 인공지능인지 밝히는 작업은 매우 복잡하고 어려운 논의를 함축하고 있다. 이 짧은 글이 겨냥하는 바는 이 논의를 살짝 비켜서 어떤 인공지능이 좋은 인공지능인지에 대해 논의하는 것이다. 이러한 문제의식을 갖고 ‘인공지능’의 외연 전반을 살펴보면 오래전 하우겔랜드(J. Haugeland)라는 철학자가 주창한 ‘GOFAI’(Good Old-Fashioned AI)라는 개념을 만날 수 있다. 이는 용어의 의미 그대로 오래전 유행하였던 인공지능을 뜻하는데, 이는 기호주의 인공지능 기술을 지칭한다. 이 기호주의 인공지능이 좋은(good) 이유가 바로 설명가능성이다. 그런데 이 때의 설명은 위에서 밝혔듯 XAI 프로젝트가 실제로 수행목표로 삼고 있는 a)d)가 아닌, b)c)다. 다시 말해 GOFAI가 좋은(good) 이유는 과정을 설명할 수 있는 정보처리과정이 투명하기 때문이다. 한편 XAI가 좋은 이유는 a)d)때문이 아니다. 정확히 말하자면 a)d)는 딥러닝이 더 좋은 AI가 되기 위한 목표다. 요컨대 GOFAI의 '설명가능성은'(Explanability)는 b)c)에 적중하고 그 ‘좋음’(Goodness)의 이유는 과정의 설명적 투명성이다. 반면 딥러닝 XAI의 ‘X'는 a)d)에 적중하며 그렇기 때문에 그것이 표방하는 ‘좋음’은 화용론적 설명가능성이라 할 수 있다. 그렇다면 현재 XAI의 ‘좋음’은 무엇인가? 이에 대한 선결문제는 GOFAI가 왜 철 지난(old fashioned) AI인지에 대한 이유를 밝히는 것이다. 기호주의가 철지난 AI라면 딥러닝은 제철을 맞은 AI다. 딥러닝이 제철을 맞은 이유는 기호주의 AI로는 범접할 수 없는 데이터 처리 성능에 있다. XAI의 ‘G’는 성과(perfomance)다. 철학의 입을 빌려 말하자면 ‘좋음’이란 기계를 포함한 모든 존재가 마땅히 지향해야할 궁극적 목표, 다른 말로 최고선이다. 인공지능도 예외라 할 수 없다. XAI도 AI가 GAI(Good AI)가 되기 위한 다음 단계다. 이상의 논의에 따른 논리적 결론은 GXAI(Good XAI)가 되기 위한 방편은 이제 AI 연구가 다시 설명적 투명성을 갖춘 기호주의 AI로 전회하는 것, 아니면 엄밀한 의미의 설명 부담을 벗어버린 화용론적 AI 모델에 주안점을 두는 것, 이 두 가지다. 그러나 이 둘을 한 번에 성취하고자 하는 것은 좀 지나친 욕심 같이 보인다. 김형주(중앙대) |