중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
누구의 인공지능인가?
Level 10조회수91
2023-03-28 15:12



오른손에 아주 작은 상처라도 한 번 나보면 세상 모든 것이 얼마나 오른손잡이 위주로 되어 있는지 알게 된다. 냉장고 문 여는 방향이나 컴퓨터의 마우스 모양, 그리고 지하철이나 버스의 승차 카드 인식 리더기의 위치에 이르기까지 일상의 많은 것들이 왼손잡이에게는 불편하고 어색한 일투성이임을 알 수 있다. 그제야 깨닫는다. 단지 오른손잡이라는 우연한 이유로 나는 이 많은 일의 불편함과 불리함에서 면제받아 왔구나.
오른손에 아주 작은 상처라도 한 번 나보면 세상 모든 것이 얼마나 오른손잡이 위주로 되어 있는지 알게 된다. 냉장고 문 여는 방향이나 컴퓨터의 마우스 모양, 그리고 지하철이나 버스의 승차 카드 인식 리더기의 위치에 이르기까지 일상의 많은 것들이 왼손잡이에게는 불편하고 어색한 일투성이임을 알 수 있다. 그제야 깨닫는다. 단지 오른손잡이라는 우연한 이유로 나는 이 많은 일의 불편함과 불리함에서 면제받아 왔구나.

지금 우리가 살아가는 일상의 환경은 이러한 ‘우연 아닌 우연’들이 역사적으로 축적되어 온 결과다. 그것을 우리는 기술 환경이라고도 부르고 기술 인프라라고도 부른다. 누군가에게는 몹시 당연하고 편리한 기술이 왜 누군가에게는 불편하고 불안을 느끼는 환경이 되어야 할까. 동시대를 함께 살아가는 인간으로서 의문을 가져 마땅할 이러한 질문들은 시장 경제의 효율성이나 다수 우선이라는 원칙 아래에서 덮여버리곤 한다. 그러나 인간과 기계와 자연이 공생하는 오늘날의 환경에서 ‘누구를 위한 기술인가’라는 질문은 결코 간과할 것이 아니다. 지금 우리가 살아가는 일상의 환경은 이러한 ‘우연 아닌 우연’들이 역사적으로 축적되어 온 결과다. 그것을 우리는 기술 환경이라고도 부르고 기술 인프라라고도 부른다. 누군가에게는 몹시 당연하고 편리한 기술이 왜 누군가에게는 불편하고 불안을 느끼는 환경이 되어야 할까. 동시대를 함께 살아가는 인간으로서 의문을 가져 마땅할 이러한 질문들은 시장 경제의 효율성이나 다수 우선이라는 원칙 아래에서 덮여버리곤 한다. 그러나 인간과 기계와 자연이 공생하는 오늘날의 환경에서 ‘누구를 위한 기술인가’라는 질문은 결코 간과할 것이 아니다. 

이는 인공지능이나 메타버스 등의 새로운 기술에 온 사회의 관심이 몰리는 지금도 마찬가지다. 더 나은 인간의 삶을 위해 개발된다는 이러한 기술들은 인간 모두의 보편적 삶을 위한 것일까? 정말 거대 자본과 첨단 기술이 집약되면 인간의 미래는 구원받을 수 있을 것인가? 만일 그렇다면 현재 등장하는 인공지능이나 알고리즘 기술 상품들은 과연 ‘누구’를 위한 것인가? 이는 인공지능이나 메타버스 등의 새로운 기술에 온 사회의 관심이 몰리는 지금도 마찬가지다. 더 나은 인간의 삶을 위해 개발된다는 이러한 기술들은 인간 모두의 보편적 삶을 위한 것일까? 정말 거대 자본과 첨단 기술이 집약되면 인간의 미래는 구원받을 수 있을 것인가? 만일 그렇다면 현재 등장하는 인공지능이나 알고리즘 기술 상품들은 과연 ‘누구’를 위한 것인가? 

역사적으로 새로운 기술이 하나씩 등장할 때마다 그 기술은 우리에게 일상의 편리와 더 나은 인간다운 미래를 약속해왔다. 그러나 대규모의 자본을 투자한 새로운 기술들은 조금이라도 사회의 다수이거나 권력을 더 지닌 사람들에게 맞춤형으로 제공되는 것이 일반적이다. 대규모의 빅데이터와 빠른 속도의 컴퓨터 처리 능력에 의존해야 하는 인공지능 기술도 여기에서 예외일 수는 없다. 기존의 데이터가 더 많이 축적되어 있어 신상품 개발에 더 효율적이고 유용하다는 이유로, 역사적으로 축적된 많은 불편함과 불안과 불공정함이 담긴 기술 환경은 새로운 기술 인프라에서도 여전히 남게 된다. 역사적으로 새로운 기술이 하나씩 등장할 때마다 그 기술은 우리에게 일상의 편리와 더 나은 인간다운 미래를 약속해왔다. 그러나 대규모의 자본을 투자한 새로운 기술들은 조금이라도 사회의 다수이거나 권력을 더 지닌 사람들에게 맞춤형으로 제공되는 것이 일반적이다. 대규모의 빅데이터와 빠른 속도의 컴퓨터 처리 능력에 의존해야 하는 인공지능 기술도 여기에서 예외일 수는 없다. 기존의 데이터가 더 많이 축적되어 있어 신상품 개발에 더 효율적이고 유용하다는 이유로, 역사적으로 축적된 많은 불편함과 불안과 불공정함이 담긴 기술 환경은 새로운 기술 인프라에서도 여전히 남게 된다. 

이러한 불평등을 이야기할 때 대표적으로 언급되는 사례 중의 하나가 캐럴라인 크리아도 페레스가 <보이지 않는 여자들>에서 지적한 “젠더 데이터 공백”이다. 여성의 데이터가 남성의 데이터에 비해 부족하고, 그로 인해 사회적 기준이 남성을 기본값으로 한 채 의사결정이 이루어진다는 지적이다. 자동차 충돌실험에서 사용하는 더미가 유럽 남성의 표준 체형을 기준으로 하고 있어 체형이 더 작은 여성이나 어린이 등의 안전은 실질적으로 배제되었던 점 등이 대표적인 사례다. 페레스는 젠더 데이터의 누락이나 공백으로 인한 여성의 부재가 대개 악의적이거나 고의적이지 않은 방식으로 일어나기 때문에 더 중요하게 살펴야 할 지점이라고 지적한다. 실제로 페레스의 주장은 일부 국가의 정책에 반영되어 데이터 공백을 줄이는 시도가 시행되기도 했다.이러한 불평등을 이야기할 때 대표적으로 언급되는 사례 중의 하나가 캐럴라인 크리아도 페레스가 <보이지 않는 여자들>에서 지적한 “젠더 데이터 공백”이다. 여성의 데이터가 남성의 데이터에 비해 부족하고, 그로 인해 사회적 기준이 남성을 기본값으로 한 채 의사결정이 이루어진다는 지적이다. 자동차 충돌실험에서 사용하는 더미가 유럽 남성의 표준 체형을 기준으로 하고 있어 체형이 더 작은 여성이나 어린이 등의 안전은 실질적으로 배제되었던 점 등이 대표적인 사례다. 페레스는 젠더 데이터의 누락이나 공백으로 인한 여성의 부재가 대개 악의적이거나 고의적이지 않은 방식으로 일어나기 때문에 더 중요하게 살펴야 할 지점이라고 지적한다. 실제로 페레스의 주장은 일부 국가의 정책에 반영되어 데이터 공백을 줄이는 시도가 시행되기도 했다.

그러나 페레스를 비롯한 학자들의 주장처럼, 데이터 공백을 채우고 문제가 된 알고리즘을 수정 보완하는 것으로 인공지능 기술의 차별 문제는 해결될 수 있을까? 그렇지는 않을 것이다. 2021년 초에 혐오 발언과 불법 데이터 수집 문제 때문에 서비스를 중지했던 챗봇 ‘이루다’가 최근 새로운 버전으로 다시 출시되었다. 개발사의 설명에 따르면 문제가 되었던 새로운 버전에서는 윤리 규정을 정비하고 “친밀한 친구 관계를 형성할 수 있는” 대화의 법칙을 적용했다고 한다. 물론 이는 초기 버전보다는 더 나은 ‘상품’일 것이다. 최소한 사회적인 물의를 덜 빚고 개발 과정에서 윤리 규정을 지키려 노력했다는 점에서는 그렇게 말할 수 있다. 그러나 페레스를 비롯한 학자들의 주장처럼, 데이터 공백을 채우고 문제가 된 알고리즘을 수정 보완하는 것으로 인공지능 기술의 차별 문제는 해결될 수 있을까? 그렇지는 않을 것이다. 2021년 초에 혐오 발언과 불법 데이터 수집 문제 때문에 서비스를 중지했던 챗봇 ‘이루다’가 최근 새로운 버전으로 다시 출시되었다. 개발사의 설명에 따르면 문제가 되었던 새로운 버전에서는 윤리 규정을 정비하고 “친밀한 친구 관계를 형성할 수 있는” 대화의 법칙을 적용했다고 한다. 물론 이는 초기 버전보다는 더 나은 ‘상품’일 것이다. 최소한 사회적인 물의를 덜 빚고 개발 과정에서 윤리 규정을 지키려 노력했다는 점에서는 그렇게 말할 수 있다. 

그러나 데이터 수집에 양적인 균형을 맞추고 알고리즘 오류를 수정한다고 해서 기술에 스며든 불평등이 바로잡히는 것은 아니다. ‘이루다 2.0’은 여전히 21세 여성의 캐릭터를 지니고 있으며, 재미있고 귀엽고 설레는 대화가 가능하도록 설정되어 있다. 주로 연애와 친교의 대화가 오가는 대화 데이터를 바탕으로 한 언어 모델을 사용했기 때문이다. 이러한 모델에서 사회적인 이슈와 논쟁과 갈등은 지워지고 인간의 감정은 패턴 식별을 통해 수량화된다. ‘이루다 2.0’의 업그레이드도 이런 방식을 따라 더 부드럽고 자연스럽고 다정한 말을 하는 챗봇으로 방향을 잡았다. 즉 이 챗봇이 대화를 이어나가지 못하고 답을 꺼리는 주제나 내용이 있다면, 그것은 빅데이터와 딥러닝의 오류가 아니라 목표인 셈이다. 그러나 데이터 수집에 양적인 균형을 맞추고 알고리즘 오류를 수정한다고 해서 기술에 스며든 불평등이 바로잡히는 것은 아니다. ‘이루다 2.0’은 여전히 21세 여성의 캐릭터를 지니고 있으며, 재미있고 귀엽고 설레는 대화가 가능하도록 설정되어 있다. 주로 연애와 친교의 대화가 오가는 대화 데이터를 바탕으로 한 언어 모델을 사용했기 때문이다. 이러한 모델에서 사회적인 이슈와 논쟁과 갈등은 지워지고 인간의 감정은 패턴 식별을 통해 수량화된다. ‘이루다 2.0’의 업그레이드도 이런 방식을 따라 더 부드럽고 자연스럽고 다정한 말을 하는 챗봇으로 방향을 잡았다. 즉 이 챗봇이 대화를 이어나가지 못하고 답을 꺼리는 주제나 내용이 있다면, 그것은 빅데이터와 딥러닝의 오류가 아니라 목표인 셈이다. 

누구나 공정한 인공지능이 필요하다고 말한다. 그리고 인공지능은 인간의 삶에 이로울 수 있도록 윤리적인 방향으로 발전되어야 한다고들 한다. 하지만 이때 ‘우리’는 과연 누구일까? 혹시 암묵적으로 그 ‘우리’ 속에 나도 포함된다고 믿으면서, 다른 수많은 ‘우리’가 아닌 이들에게 가해지는 기술 차별과 불평등에 눈 감고 있는 것은 아닌지 물어볼 때다.누구나 공정한 인공지능이 필요하다고 말한다. 그리고 인공지능은 인간의 삶에 이로울 수 있도록 윤리적인 방향으로 발전되어야 한다고들 한다. 하지만 이때 ‘우리’는 과연 누구일까? 혹시 암묵적으로 그 ‘우리’ 속에 나도 포함된다고 믿으면서, 다른 수많은 ‘우리’가 아닌 이들에게 가해지는 기술 차별과 불평등에 눈 감고 있는 것은 아닌지 물어볼 때다.

이희은 (조선대학교 신문방송학과) 

중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED