중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
생성형 인공지능이 생성하지 못하는 이야기
Level 10조회수87
2023-08-08 14:08



2023년 3월 처음 공개된 챗지피티는 인공지능의 역사에 또 한 번의 전환점을 낳았다. 챗지피티를 접한 대부분의 사람들은 기술이 기어이 여기까지 온 데에 놀라움과 허탈함을 표현했고, 일부 전문가들은 챗지피티가 오류를 범할 때까지 무한히 대답을 생성하고 또 생성했다. 챗지피티가 놀라웠던 것은 인공지능이 분석과 예측에서 나아가 생성까지 하게 되었다는 사실이며 심지어 그 대답도 꽤 길고, 비교적 정확하고, 때로는 창의적이기까지 했기 때문이다. 주어진 답안지 안에서 단답형의 대답만을 반복하던 기존의 챗봇과는 차원이 달랐고, 긴 답변을 재생성할 때마다 3-4초의 반응지체만 지나면 새로운 문장이 척척 만들어졌다. 

생성형 인공지능이라는 학계의 분류 명칭처럼 문장을 ‘생성’해내는 실력이 가장 놀라웠지만, 또 한 가지 주목을 받았던 사실은 초기 챗봇이 흔히 범했던 실수들이 많이 줄었기 때문이다. 모두 기억하겠지만 2016년 미국 마이크로소프트사에서 트위터를 통해 소통하는 챗봇 ‘테이(Tay)’를 야심차게 출시했다가 16시간 만에 급하게 서비스를 종료했고, 국내에서도 2020년 스케터랩에서 챗봇 ‘이루다’를 공개했지만 서비스를 전면 중단하고 1년  간의 대대적인 개편을 거쳐 버전2를 소개한 바 있다. 이유는 동일했다. 사전 학습 데이터를 통해 구축된 챗봇이 사용자와의 대화를 2차 학습데이터로 삼으면서 인종, 젠더, 문화를 넘나들며 차별, 편견이 내재된 언어들은 쏟아내었기 때문이다. 챗지피티에서는 같은 실수가 반복되지 않았다. 이에 대해 개발사인 오픈에이아이(OpenAI)에서는 챗지피티가 생성하는 문장에서 차별 및 혐오 발언을 차단하는 특수기능인 모더레인션API를 적용해 기존의 챗봇에 존재하던 편향의 가능성을 줄였다고 밝혔다. 하지만 챗지피티가 알고리즘 필터링을 통해 편향된 발언을 ‘생성’하지 않는다고 해서 인공지능 기술이 편향을 해결하고 있다고 말할 수 있을까?  

지금은 퇴사했지만 구글 인공지능 윤리팀의 창설자이자 구글 인공지능 연구팀의 연구자였던 팀닛 게브루(Timmit Gebru)는 동료 연구자와 작성한 논문 <통계학적 앵무새의 위험성에 대하여: 언어모델이 지나치게 거대해질 수 있는가?(On the Dangers of Stochastic Parrots: Can Language Models be Too Big?)>(2021)을 통해 자연어 처리 시스템이 근본적으로 내재할 수밖에 없는 사회적 차별과 편견에 대해 설명했다. 게브루에 따르면 구글을 포함하여 언어 신경망 모델을 개발하고 있던 빅테크 기업이나 유관 기관들은 경쟁적으로 언어 모델의 크기를 늘려왔다. 챗지피티가 버전을 업그레이드할 때마다 훈련 데이터의 양을 늘려 텍스트에서부터 이미지까지 입출력 범위를 확장한 것에서도 볼 수 있듯이 기본적으로 인공지능 모델에서 훈련 데이터의 양이 많아지면 언어 신경망 모델이 더 많은 업무를 수행할 수 있음은 자명하다. 하지만 게브루는 다음과 같은 이유로 언어 모델의 크기를 늘리는 것이 데이터의 질적 다양성까지 포함하는 것은 아니라고 말한다. 

기존의 챗봇은 물론이고 챗지피티 역시 대용량의 온라인 데이터를 학습 데이터로 삼는다. 이는 학습 데이터의 양을 늘린다는 것이 근본적으로 몇 가지 전제 조건을 가진다는 의미다. 온라인 상에 존재하는 정보여야하고, 대다수의 사람들이 이해할 수 있는 언어로 작성되어야 하며, 알고리즘이 학습할 수 있을 만큼 반복적으로 제시되는 충분한 양의 정보여야 한다. 이를 바꿔 말하면 인공지능의 학습데이터는 근본적으로 주류 담론을 대표할 수밖에 없는 한계를 갖는다. 챗지피티3의 훈련데이터만 해도 영어로 된 온라인 플랫폼인 위키피디아(Wikipedia), 구글(Google), 뉴욕타임스(The New York Times)와 온라인 커뮤니티인 레딧(Reddit), 워드프레스(Wordpress), 기트허브(GitHub) 등이 포함된다. 이들은 영어를 기반으로 한 서비스이고, 온라인 커뮤니티의 경우 이용자의 대다수가 남성이며 18세에서 29세 사이의 연령대에 제한된다. 여기에 속하지 않는 국가, 언어, 성별, 세대, 집단의 의견은 학습 데이터로 포함되기 어렵다. 

심지어 인공지능의 차별과 편향에 대한 챗지피티 나름의 윤리적 대응책이었던 모더레이션API가 한편으로는 챗지피티의 차별과 편향에 일조하게 되는데 알고리즘이 비윤리적 데이터를 걸러낸다고 할 때 자연어 개체명을 인식해 특정 표현이나 언어를 배제해야 하는 경우 같은 개체명을 사용했을 소수자나 소외집단의 의견 역시 훈련 데이터에서 배제될 확률이 높아지는 것이다. 뿐만 아니라 소수자나 소외 집단의 담론은 ‘주류’가 아니라는 이유 때문에 특정 사건이 계기가 되거나 집단적인 노력을 기울이지 않으면 이들의 이야기가 문서나 데이터로 적절하게 축적되지도 못한다. 예를 들어, 오래된 차별의 역사에 비교하면 상대적으로 최근에 일어난 흑인인권운동이나 젠더평등운동 등 소수자 운동의 경우는 축적된 이야기가 양적으로 적을 뿐 아니라, 현재진행형인 사건들이라 인공지능의 학습데이터에 실시간으로 반영되도록 데이터화하는 일도 지금의 언어 모델로는 어렵다. 그렇다면 이들의 이야기가 일반적인 경로로 훈련 데이터에 속해서 챗봇이나 인공지능 기반 매체가 ‘생성 가능한’ 정보로 재생산될 확률은 현저히 줄어드는 것이다. 생성한 정보의 편향성의 문제가 되기 이전에 생성조차 될 수 없는 이야기들로 남게 된다는 의미다. 

인공지능 기술은 날로 발전하고 개발자들은 인공지능 기반 매체가 기존에 범했던 실수가 가시화되지 않도록 또 다른 기술을 개발하고 있다. 하지만 사회적인 편향은 언제나 말해지지 않고 보이지 않는 곳에서 찾을 수 있다. 그렇다면 생성형 인공지능이 생성한 정보에 대한 정확성을 판별하거나 생성된 정보의 편향성을 파악하는 일도 물론 중요하지만 생성형 인공지능이 생성하지 못하고 있는 이야기를 찾아내는 일에도 기술사회적인 관심이 필요하지 않을까? 

이정현(중앙대학교 인문콘텐츠연구소 HK연구교수)  

중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED