중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
다시 인공지능 윤리를 이야기할 때
Level 10조회수113
2023-05-30 14:17

2017년 2월, 미국 캘리포니아 해안가의 작은 마을인 아실로마에 전세계의 인공지능 전문가들이 모였다. 1975년 DNA 재조합 기술의 안전성 확보를 위한 규제의 확립과 실험기준의 검토를 위해 유전학자들이 모인 지 42년만이었다. 참석자들은 “이로운 인공지능 회의Beneficial AI conference”를 통해 인공지능을 개발할 때 지켜야 할 23개의 원칙을 제안했으며, ‘아실로마 23원칙Asilomar AI Principles’으로 알려진 이 준칙에는 안전, 실패의 투명성, 책임성, 인간의 가치, 개인정보 보호 등 13개 조항의 윤리와 가치 항목이 포함되었다. 이후 물리학자 스티븐 호킹, 테슬라 CEO 일론 머스크, 구글 딥마인드 CEO 데미스 하사비스 등의 저명한 인물 2,300명이 해당 준칙을 지지하며 서명하였으며, 이후 ‘아실로마 23원칙’은 다양한 인공지능 윤리원칙의 토대가 되었다.  

(그림 1) 아실로마 컨퍼런스에 참석한 패널들. 왼쪽부터 일론 머스크, 스튜어트 러셀, 바트 셀먼, 레이 커즈와일, 데이빗 차머스. 
출처: Future of Life 홈페이지

 인공지능의 개발과 활용 측면에서 윤리 문제가 제기된 것은 오래된 일이다. 1942년 SF의 대가인 아이작 아시모프Isaac Asimov가 『런어라운드Runaround』에서 이미 아래의 “로봇의 3원칙”을 이미 제안한 바 있다. 

1. 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
2. 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
3. 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.

아시모프의 우울한 상상은 다양한 문학에 영감을 주었을 뿐 아니라, 인공지능 기술의 거침없는 발전을 불안하게 지켜보는 오늘날의 우리에게 그 어느때보다 가깝게 다가온다.

아실로마 이후 OECD, EU, UNESCO, IEEE 등 다양한 국제기구를 비롯하여 구글, 마이크로소프트 등 기업들까지 인공지능 윤리의 원칙들을 발표해왔다. 하버드 대학교의 버크만 클라인 센터Berkman Klein Center는 2019년까지 발표된 80여개의 인공지능 원칙보고서 중 주요 36개 보고서를 비교 분석하여 아래와 같이 8가지 핵심 주제를 선정하였다.

- 개인정보(privacy)
- 책임성(accountability)
- 안전 및 보안(safety and security)
- 투명성 및 설명 가능성(transparency and explainability)
- 공정성 및 비차별(fairness and nondiscrimination)
- 인간의 기술 통제(human control of technology)
- 전문가 책임(professional responsibility)
- 인간 가치 증진(promotion of human values)

위의 핵심 주제들을 포함하는 ‘신뢰할 수 있는 인공지능’으로 대표되는 윤리적인 인공지능 개발 방향에 대해서는 이미 어느 정도 합의가 이루어 진 것으로 보인다. 오히려 이제 윤리 원칙 세우기는 그만두고, 실제로 이를 실현시킬 기술에 대해 이야기를 하자는 목소리도 높아지고 있다. 

(그림 2) 버크만 클라인 센터에서 공개한 A Map of Ethical and Rights-based Approaches to Principles for AI. 
출처: 버크만 클라인 센터 홈페이지  

그러나, 2023년 다시 인공지능 윤리에 대해 이야기를 하고자 한다. 챗GPT 서비스가 공개된 2023년은 인공지능 기술 개발 속도와 방향에 커다란 변화를 일으킬 원년이 될 것이라는 전망이 제기되고 있다. 챗GPT의 등장은 생성형 인공지능에 대한 다양한 가능성을 열어준 한편, 그동안 생각하지 못했던 윤리 이슈들도 함께 드러냈다.

첫 번째 이슈는 저작권 문제이다. 생성형 인공지능의 대량의 데이터를 학습하는 과정에서 저작권 침해와 개인정보 무단 수집 및 이용의 문제가 발생할 수 있다. 실제로 2022년 11월에는 코드 소스 생성 AI인 깃허브 코파일럿GitHub Copilot의 이용자들은 마이크로 소프트와 깃허브, 오픈AI가 코파일럿의 AI를 교육하는 과정에서 여러 제작자들이 공동으로 만든 오픈소스 라이선스를 무단으로 사용하는 것에 대해 소송을 제기했다. 2023년 1월 캘리포니아 북부 지방 법원 역시 이미지 생성 AI인 스테이블 디퓨전Stable Diffusion 모델의 학습데이터로 수백만명의 예술가의 작품을 동의없이 사용한 것에 대해 스태빌리티AIStability AI와 미드저니Midjourney를 상대로 집단 소송을 제기했다. 저작권과 관련하여 챗GPT가 저자가 될 수 있는지에 대한 논란 역시 등장했으며, 최근에는 자연인인 사람의 창작물이 아니므로 챗GPT에게는 저작권이 없다는 의견이 모아지고 있다. 


 
(그림 3) 게티 이미지Getty Images는 스테이블 디퓨전 모델이 자사의 워터마크까지 포함하여 유사한 이미지를 생성했다며 고소했다.
출처: James Vincent, “Getty Images sues AI art generator Stable Diffusion in the US for copyright infringement,” The Verge, 2023.2.7.

생성형 AI가 야기한 두 번째 윤리 이슈는 이를 교육에 어떻게 적용해야 하는가에 대한 문제이다. 챗GPT가 출시되자 대학은 말그대로 비상이 걸렸다. 학생들이 기존의 표절 검사 서비스인 턴잇인turnitin이나 카피킬러에 잡히지 않는 챗GPT가 생성한 문장들을 사용하여 과제를 제출할 경우, 이를 확인할 수 있는 방법이 거의 전무하기 때문이다. 미국 뉴욕시의 공립 중고등학교는 챗GPT의 사용을 완전 금지하는 한편, 워싱턴 디씨 소재 대학은 집에 가져가는 과제를 제출하지 않기로 결정했다. 하버드 대학교와 예일 대학교는 생성형 AI가 쓴 글과 인간이 쓴 글을 구별해내는 GPT Zero 서비스를 도입하기도 했다. 국내에서도 대학별로 자체 기준을 마련해가고 있다. 중앙대학교 사회과학대학은 학생 대상으로 표절 교육을 실시한 후 챗GPT를 사용하여 과제를 제출하지 않겠다는 서약서를 받고 있으며, 고려대학교 역시 모든 교수를 대상으로 챗GPT 활용 가이드라인을 배포하며 수업 초반에 AI의 윤리적 사용 방안에 대한 교육을 실시할 것을 권고했다. 

생성형 AI가 불러온 윤리문제는 흡사 창작 행위의 소유권을 둔 인공지능과 인간의 대결구도로 보이기도 한다. 인간의 창작물을 학습한 AI 모델이 인간과 흡사하거나 더욱 뛰어난 결과물을 만들어내는 상황에서 인공지능 윤리의 문제는 인간성의 본질에 대한 성찰로 이어지기도 한다. 인공지능이 수많은 직업을 대체하며 인간이 설 곳이 좁아진다느니, 챗GPT를 사용하는 세대들은 학습능력이 저하될 것이라느니 하는 걱정과 같이 새로운 기술의 등장과 함께 늘 따라다녔던 비관적 미래에 대한 전망도 뒤따랐다. 하지만 이러한 논의가 인공지능 개발자 뿐 아니라 더 많은 대중들에게 회자되는 것은 오히려 반길 일이다. 그동안 블랙박스화 되어왔던 인공지능 기술이 더 많은 사람들의 입에 오르내리며 더 큰 공론장에서 이야기되는 것은 더욱 민주적이고 투명한 기술 발전을 위한 첫 걸음이 될 것이다. 

처음 계산기가 발명되었을 때 모든 사람이 바보가 될 것이라는 우려도, 카메라가 발명되었을 때 화가들이 굶어 죽을 것이라는 걱정도 지금에 와 보면 결국 더 심화된 과학이론과 더욱 창의적인 미술 사조를 탄생시키는 도구가 되었다. 챗GPT를 비롯한 생성형 인공지능의 발전 역시 인류의 상상력과 창의성을 끌어올려준 유용한 도구의 등장으로 여기고 이를 현명하고 윤리적으로 사용할 방법을 의논할 때이다.

신지은 (서울대학교 BK21 4단계 대학원혁신사업단) 



중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED