인공지능 연구는 1950년대 시작된 후 주기적인 융성과 쇠퇴의 시기를 경험하면서 발전해왔다. 이는 지능적 수행의 비밀을 풀려는 다양한 접근의 성공과 실패를 반영하는데, 접근이 성공하면서 유사한 시도가 광범위하게 이루어지다가 문제점이 드러나면서 침체기에 접어드는 일이 반복되었다. 인공지능의 이러한 발전 과정은 지능이 무엇인지, 지능적 수행의 핵심 요인이 무엇인지에 대한 이해의 변천과 심화를 보여준다.
인공지능 연구의 1차 융성기는 1950년대 인공지능 연구가 시작과 함께 시작되었다. 철학에서 이루어진 사고의 형식화 작업을 바탕으로 계산론이 출현하였고, 전자회로를 사용하여 기계가 계산을 수행할 수 있게 되면서 본격적으로 인공지능에 대한 연구가 시작되었다. 초기 개발된 시스템 중 가장 주목받은 것은 미국 카네기 멜론 대학에서 개발한 논리이론가(Logic Theorist; LT) 시스템이었다. 논리이론가는 러셀과 화이트 헤드가 저술한 수학원리(Principia Mathematica)의 정리를 증명하였는데, LT의 성공에 힘입어 다양한 영역에서 처리과정을 형식화하고 계산 모형화 하는 시스템 개발이 시도되었고 곧 지능적 수행의 비밀이 풀릴 것이라는 낙관론이 팽배하였다. 하지만 이러한 장밋빛 전망은 곧 자취를 감추었는데, 기계는 인간이 어려워하는 논리적 문제나 복잡한 계산 문제는 잘 수행하였지만, 인간에게는 직관적이고 간단한 시지각(vision) 같은 문제를 기계에게 하도록 하는 것은 훨씬 더 어려운 작업임이 드러나게 되었다. 지능적 수행을 형식화하고 계산화하는 것만으로는 지능적 수행을 만들어 내는 것이 부족하다는 것이 드러나게 되면서, 인공지능 연구는 침체기에 들어갔고, 이를 인공지능 연구의 첫 번째 겨울이라고 부른다. 인공지능 연구는 1980년대 두 번째 융성기를 맞게 된다. 전문성(expertise)에 대한 연구는 체스 마스터, 의사 등 영역 전문가들이 보이는 수행의 핵심이 이들이 가지고 있는 방대한 지식에 있다는 것을 보여주었다. 이는 전문가 시스템(expert system)의 개발로 이어졌는데, 전문가 시스템의 핵심은 체스, 의학 등의 영역 전문가(domain experts)들이 가지고 있는 지식에 있었다. 많이 알려진 시스템으로 1970년대 스탠포드 대학에서 개발된 MYCIN이 존재하는데, 전염성 혈액 질환을 진단하는 대화형 시스템으로 환자의 증상을 바탕으로 진단과 함께 치료에 필요한 항생제를 처방하였고 초보 의사 수준의 수행을 보이는 것으로 평가되었다. 의학뿐만 아니라 화학, 금융 등 여러 영역에서 영역 전문가들이 가지고 있는 지식과 노하우를 추출하고 이를 모사하는 전문가 시스템을 만들려는 다양한 시도가 이루어졌으나, 시간이 지나면서 문제점들이 드러나기 시작하였다. 인간의 지식과 경험은 상당 부분 암묵적인 형태로 저장되어 있는데, 이는 전문가들도 마찬가지이다. 전문가들이 알고 있는 지식의 많은 부분은 질문에 대한 답이나 기술의 형태로 외현화할 수 있지만, 이들이 지닌 암묵적인 지식은 손쉬운 형태로 외현화가 가능하지 않다. 인간 전문가가 가진 지식은 또한 끊임없이 변화하는데, 한 때 유용했으나 더 이상 유용하지 않은 지식을 폐기하고 새로운 연구 결과나 기술의 발전을 반영하여 자신의 지식 기반을 업데이트 하는 작업이 끊임없이 이루어진다. 하지만 전문가 시스템의 경우 자체적인 학습 능력의 부재로 인하여 엔지니어가 끊임없이 내용을 업데이트해주지 않으면 철지난 기계와 같은 존재가 되기 십상이었다. 전문성의 핵심이 지식과 경험에 있다는 인식과 함께 인공지능의 두 번째 융성기가 시작되었으나, 지식 기반을 스스로 업데이트할 수 있는 학습 능력이 필수적이라는 깨달음과 함께 인공지능 연구의 두 번째 겨울이 시작되었다. 2010년 이후 인공지능 연구는 3차 융성기를 맞이하고 있다. 이 시기의 인공지능은 딥러닝(Deep Learning)으로 대표된다. 딥러닝은 기계학습 기법의 하나로, 뇌의 신경망을 본뜬 인공신경망을 사용한다. 신경망(neural network)에는 입력(input)과 출력(output) 층이 존재하는데, ‘딥’이라는 용어는 입력과 출력 층 사이에 보이지 않는 층이 있는 신경망을 사용한 학습이라는 것을 지칭한다. 다층으로 구성된 신경망을 사용한 학습기법 자체가 새로운 것은 아니었지만, GPU(Graphical Processing Units)가 가져온 계산능력의 비약적인 발전 및 인터넷에 축적된 방대한 양의 데이터에 힘입어 딥러닝의 성공이 가능하게 되었다. 딥러닝은 그동안 난제로 여겨지던 이미지 및 음석 인식에서의 상당한 진전을 가능하게 하였는데, 언어 번역, 게임 또한 알파고 같은 게임 영역에서의 성공도 대중적으로 많은 주목을 받았다. 딥러닝의 눈부신 성공에도 불구하고 딥러닝에 대한 회의와 문제제기도 만만치 않다. 가장 큰 문제점은 딥러닝 기법이 학습 자료에 있는 패턴에 대한 확률적인 학습에 의존한다는 데서 발생한다. 딥러닝은 수많은 사례를 바탕으로 확률적인 패턴학습을 수행하는데, 그 결과 훈련 자료의 크기와 질에 의해서 결과물이 영향 받게 된다. 훈련 데이터가 적거나, 편향이 존재할 때 또한 훈련과 적용의 영역이 달라질 때(예, 서양인 데이터를 기반으로 만들어진 알고리듬을 동양인에게 적용) 문제가 발생하게 된다. 알고리듬의 불투명성 또한 문제점으로 지적되는데, 입력과 출력을 대응하고 분류하는 능력은 향상되지만 왜 그러한 범주화를 했는지는 설명할 수 없다. 이유를 설명할 수 없다는 것이 사소한 과제에서는 중요하지 않을 수 있으나, 재판에서 유무죄를 따지거나 질병을 진단하고 치료법을 선택해야 할 때 ‘왜’라는 질문에 답변할 수 없다는 것은 심각한 단점으로 작용한다. 아직 세 번째 인공지능 연구의 겨울을 말 할 수 있는 단계는 아지만, 이러한 문제점들은 지능적 수행에서 ‘설명’과 ‘이해’의 중요성을 부각시켜준다. 현재 딥러닝이 가지고 있는 문제점들이 극복되는 과정에서 지능적 수행에 대한 추가적인 통찰이 가능해질 것으로 기대된다.
정혜선 (한림대학교 심리학과 교수)
|