중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
인공지능인문학과 기술비평의 과제
Level 10조회수17
2024-08-20 11:46
 

인공지능기술은 날로 발전하고 있지만 우리는 앞서 겪은 사회적 문제들을 해결하며 나아가고 있을까? 

우리가 지금 인공지능 기술에 대해 갖는 기대와 우려는 대부분 기술의 실체에서 기인하기 보다는 ‘인공지능’이라는 이름이 만들어내는 고유한 분위기나 맥락으로부터 기인하는 경우가 많다. 학습, 추론, 지각 등 인간의 고유한 감각 능력을 인공적으로 구현해내면서 지능을 가졌거나 가질 수 있을 것 같은 인공지능은 오랜 시간 인류가 독점해 온 위치를 다양한 방식으로 위협하고 있다. 하지만 현재 인공지능 기술의 단계에서는 인공지능이 ‘인공적’ 이라거나 ‘지능적’이라는 것도 사실은 모두 인간이 만들어 낸 환상이다.  

현재 우리가 경험하고 있는 인공지능이 작동하는 데는 데이터 전처리, 모델 설계, 데이터 라벨링, 적합한 데이터 셋 구성 등 필요한 모든 사전 작업에 인간의 노동이 개입되고 있다. 어디에서 학습 데이터를 모을 것인지, 어떤 순서와 방식으로 데이터를 처리하는 모델을 개발할 것인지, 어떤 데이터셋으로 훈련할 것인지는 알고리즘의 성능을 결정하는 가장 중요한 요소인데 이 모든 기술 개발과 설계의 과정에서 인간의 노동이 절대적이다. 이는 우리 사회에 ‘교육’의 맥락을 공학 중심으로 새롭게 설계하고 있는데 초등학생 코딩교육 열풍이나 대학 등 고등교육기관에 긴급하게 배치되는 인공지능 관련 학과나 관련 전공 교원 충원이 이 같은 현상을 잘 보여주는 예시다. 이는 자연스럽게 인공지능이 대체할 일자리와 인공지능 시대에도 살아남을 일자리에 대한 전망과 연결되어 교육이나 국가 주도 산업의 방향성을 특정한 방향으로 유도하고 있다. 2021년 신입 개발자의 초봉은 6000만원까지 치솟았고 네이버, 카카오, 쿠팡 등 대기업이 개발자 유치 경쟁에 뛰어들면서 이들의 몸값은 지속적으로 상승하고 있다. 이는 알고리즘 개발자라는 신흥 노동 귀족의 출현을 예고했다. 

하지만 기술-사회에서 실제로 노동하는 인간의 상황은 다르다. 인공지능 알고리즘 개발을 위해 투입된 인간 노동력은 기술 개발자에 국한되지 않는다. 개발된 기술이 사회에 적용되어 기술-사회의 맥락에 진입한 후에도 여전히 인간의 노동력이 필수적이다. 앞선 장에서 살펴보았듯이 적합한 데이터셋을 바탕으로 모델 자체는 매우 안정적으로 구동할 수 있도록 설계되었지만 실제 인간과의 대화에 투입된 챗봇은 특정 성별, 인종, 계급, 종교 등에 대해 혐오나 차별 발언을 쏟아냈고, 똑같은 데이터셋으로 훈련한 모델이 여성이나 유색 인종을 정확하게 인식할 확률은 백인이나 남성에 비해 눈에 띌 정도로 낮았다. 기술이 사회에 진입한 후 연쇄적으로 발생한 문제들을 해결할 필요가 대두되었고 인공지능 윤리지침, 개발자 행동강령, 분야별 인공지능 사용규제 등이 필요에 따라 명문화되기 시작했다. 동시에 기술도 나름의 방식으로 사회에 내재한 혐오나 차별 문제를 적절히 회피할 수 있도록 훈련되었다. 일례로 혐오 발언으로 한 차례 논란이 된 후 서비스를 재정비해 나타난 국내 인공지능 챗봇 서비스 ‘이루다’는 사회 소수자 관련 질문에 대해 “내 생각이 중요할까? 당사자의 생각이 더 중요할 것 같은데.” 라든가 “인종에 관계없이 모두 소중한 사람이야.” 등 제법 ‘윤리적인’ 대답을 내놓았다. 챗지피티도 마찬가지다. 차별이나 혐오 표현이 섞인 질문을 던지면 돌아오는 대답은 자신은 인공지능 언어모델이기 때문에 개인적인 의견이나 신념은 없으며 중립적이고 공정하게 모든 개인을 대한다고 그럴듯한 대답을 만들어낸다. 

이 같은 대답을 ‘설계’하기 위해 기술 개발자 차원에서 각고의 노력과 윤리적 토론이 있었겠지만 이를 위해서는 데이터셋에 존재하는 수만가지 자연어 중에 혐오나 차별 표현을 인식할 수 있도록 훈련하는 작업이 필요하다. 이 과정에도 막대한 인간 노동력이 투입된다. 챗지피티가 출시 이후 차별이나 혐오 발언을 피하기 위해 케냐의 노동자를 헐값에 투입한 것은 이미 유명한 사실이다. 챗지피티가 고용한 미국 외주 데이터 처리 회사 사마(SAMA)는 독성 텍스트(toxic text)만 따로 학습한 인공지능을 개발하여 차별이나 혐오발언을 피하기로 했고 이를 위한 데이터 전처리 과정을 케냐 노동자에게 맡겼다. 케냐 노동자는 성과에 따라 시급 1600원에서 2400원 사이의 금액을 받고 인터넷 상에 존재하는 성적 아동 학대, 살인, 고문, 자살, 근친상간 등에 대한 상세한 묘사가 담긴 텍스트를 매일 읽고 라벨링하는 작업을 했다. 이들이 수작업으로 구성한 독성 텍스트 데이터셋은 챗지피티가 출시 후 상냥하고 윤리적인 대답을 늘어놓을 수 있는 데 절대적인 기여를 했다. 이미지 인식 기술에서도 마찬가지다. 이미지 인식 기술은 인터넷 상에 광범위하게 존재하는 성적 콘텐츠나 이미지를 걸러내는 데 챗지피티와 같은 방식으로 인간의 노동력을 투입한다. 데이터의 양이 많은 만큼 이 같은 작업에는 대규모의 노동력이 필요하기에 주로 노동력이 싼 남반구의 노동자들에게 헐값에 작업을 전가한다. 지도학습이 지배적이던 때에 데이터셋 안의 이미지에 객체 별로 라벨링을 하는 작업도 인간 아르바이트가 투입됨으로써 기술을 구현해낼 수 있었다. 암호화폐인 비트코인 채굴 과정에서도 비슷한 맥락의 문제가 존재한다. 컴퓨터로 대규모의 데이터를 조합한 복잡한 수학 연산을 한 다음 블록체인을 형성하는 ‘채굴’ 과정은 엄청난 양의 전기를 필요로 한다. 이를 위해 전기료가 저렴한 중국 일부 지방의 수력발전소 인근에 채굴공장이 많이 설립되었는데 이 공장은 지역의 전기 자원을 저렴하게 사용할 뿐 아니라 주변의 소수민족을 값싸게 고용하여 공장을 운영하고 관리하도록 했다. 중국이 자국 내에서 채굴을 금지시킨 후에는 대부분의 공장이 (동일한 이유로) 카자흐스탄으로 옮겨 갔는데 이는 국지적인 정전사태로 이어져 지역민에게 또 다른 사회적 문제를 가져오기도 했다. 

인공지능 기술이 지역 사회에 가져오는 문제는 때로 좀 더 치명적이다. 인공지능 기술의 기반인 디지털 기술은 도입 초기 불필요한 인쇄용지를 줄임으로써 나무를 보호하고 종이 쓰레기를 줄이는 자연 친화적인 기술로 포장된 면이 있다. 현실은 그렇지 않았다. 빠른 속도로 발전하는 컴퓨팅 기술은 하드웨어를 시시 때때로 갱신했고 구식이 된 컴퓨터는 사람이 살고 있는 땅에 버려졌다. 동일한 맥락에서 매년 큰 혁신없이 새로운 버전이 공개되는 스마트폰도 대량의 쓰레기를 생산했다. 컴퓨터나 스마트폰 기술 자체는 미국이 주도하고 있지만 이 기술이 구식이 되면 버려지는 곳은 엉뚱한 곳이라는 점이 가장 흥미롭다. 미국, 유럽 등 선진국은 환경법이 느슨하고 쓰레기 매립을 위한 노동력이 저렴한 태국, 중국, 인도네시아 등 아시아 지역과 일부 아프리카 국가로 쓰레기를 수출했다. 이 지역의 노동자들은 버려진 전자 폐기물에 존재하는 소량의 금, 인듐 등 재활용 가능한 금속 물질을 맨 손으로 추출하고 그 안에 함께 존재하는 수은, 카드뮴, 납 같은 환경과 인체에 치명적인 금속들에 그대로 노출된다. 이들은 결국 값싼 노동력이 포진된 지역의 땅에 묻혀 장기적으로 지역 사회에 환경 문제를 가져온다. 

인공지능에 이르러 환경문제는 더 이상 지역적인 것이 아니게 되었다. 인공지능 기술이 정상적으로 작동할 수 있도록 수많은 양의 데이터를 관리하는 데이터센터와 이를 처리하는 슈퍼컴퓨터는 막대한 전기를 필요로 할 뿐 아니라 그 과정에서 엄청난 양의 탄소를 배출한다. 일례로 GPT3는 훈련 과정에서만 552톤의 탄소를 배출했고, 컴퓨터를 가동함으로써 발생하는 열을 식히기 위해서 미국 데이터 센터를 기준으로 70만 리터의 물이 소비되었다. 눈에 보이지 않는 기술이 인간이 살고 있는 사회에 치명적인 흔적을 남기고 있는 셈이다. 앞선 장에서 언급했듯 인공지능 기술은 컴퓨팅 기술의 발전을 바탕으로 혁신적으로 성장할 가능성이 높은데 기술이 발전할수록 사회-인간에게 보편적인 편의와 효용을 가져오기 보다는 막대한 에너지 비용을 감당할 수 있는 소수 IT 기업에 기술과 부가 편중되고 나머지 사람들은 사회에 남겨진 전자폐기물, 탄소 발자국을 짊어지고 살아가는 역설적인 상황에 놓일지도 모른다. 

인공지능이 인간의 지능을 가진 것처럼 보이기 위해서 수많은 인간이 기술의 뒤에 유령으로 존재한다. 기술 개발자나 IT업계 대표 같은 노동력은 사회 전면에서 신흥 노동귀족이 되지만 어떤 노동력은 기술이 인공적인 지능으로 작동할 수 있도록 철저하게 가려진다. 인간의 노동력 뿐 아니라 사회를 구성하는 땅, 공기, 하늘 같은 환경적인 요인도 인공지능 기술개발이 만들어내는 쓰레기를 감당하는 보이지 않는 노동에 관여하고 있다. 앞서 로보틱스에 대한 장에서도 서술했듯이 우리가 인공지능이나 로봇 기술에 거는 기대는 인간의 업무나 신체활동을 덜어주고 인간은 의사 결정과 같은 고차원적인 업무만 담당하는 이상적인 미래를 구현하는 것이다. 얼핏 보면 인공지능 기술은 우리가 기존에 해 왔던 많은 업무를 자동화함으로써 작업 효율과 편의를 제공해 준다. 하지만 지금 인공지능 기술이 발전되는 방향은 점차 창작, 개발 등 창의성의 영역으로 나아가고 있고 인간은 인공지능 기술이 그 작업을 원만하게 수행할 수 있도록 단순반복노동이나 허드렛일을 담당하고 있다. 모든 허드렛일이 그러하듯 이와 같은 인간의 노동은 인공지능 기술-사회를 유지하는데 필수적이지만 비가시적이고 적절한 대우도 받지 못한다. 사실 현재의 인공지능은 모두 인간 노동력의 산물일 뿐 결코 인공적이지도 지능적이지도 않지만 우리는 ‘인공적으로 구현한 인간 지능’이라는 환상을 스스로 투여하며 기술을 사회적으로 구성하고 있다. 

앞선 장이 공통적으로 서술했듯이 결국은 인공지능은 인공적으로 구현한 인간 지능의 형태를 점차 구체화해 낼 것이다. 시행착오를 겪겠지만 지금까지 기술 발전의 역사가 그러했듯 장기적인 관점에서 진보의 형태를 띨 가능성이 높다. 이 과정에서 인공지능 기술 개발은 기술-사회-인간의 맥락에서 이해되고 설계되어야 한다. 인공지능 기술에 대한 이해가 기술 자체에 대한 이해에 그치지 않고 기술과 연결된 기술-사회-인간의 맥락에서 비평으로 확장되어 탐구 되어야 할 필요가 여기에 있다. 인공지능 기술은 양적으로나 질적으로 매일 성장을 거듭하며 우리의 삶을 전혀 새로운 국면으로 가져다 놓을 듯이 다가오고 있다. 기술-사회-인간은 서로 경합하고 공생하며 꽤 오랜 기간 동안 서로 영향을 주고 받으며 구성될 것이다. 이 책은 기술 설명, 사회 사례, 비평, 미래 전망을 반복적으로 다루며, 인공지능에 대한 기대와 우려에 대한 여러 관점의 상상을 제시하였다. 단순히 기술의 공학적 이해에만 의존하지 않고 기술-사회-인간의 유기적 관계를 함께 고려하여 비평적으로 다루어야 한다는 공감대를 형성하는 데에 기여했으면 한다.

 이정현(중앙대학교 인문콘텐츠연구소 HK연구교수)


첨부파일k182931867_1.jpg (81.6KB)
중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED