중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
인공지능윤리, 그 잠재성의 중심
Level 10조회수268
2021-11-02 13:54


어떤 문제건 주어진 문제를 해결하는 것만큼이나 그 문제의 중요성을 명확히 파악하고 음미하는 것 또한 중요하다. 누구도 현재 인공지능이 중요한 문제라는 사실을 부정하지 않을 것이다. 그런데 인공지능은 왜 중요한가? 그것은 정확히 누구에게 어떤 문제들을 제기하고 있는가? 크게 보면 이들이 바로 인공지능윤리(AI ethics)가 다루고자 하는 질문이라고 할 수 있을 것이다.

인공지능윤리가 부상하게 된 배경에는 이제 더 이상 ‘비인간 자율성’(non-human autonomy)에 대한 도덕적, 윤리적 접근을 미룰 수 없게 되었다는 성찰과 각성이 있다. 일부 인공지능 개발자와 연구자들은 현재의 수준으로는 인간과 같이 사고하는 소위 “강한 인공지능”은 고사하고, 제한된 영역에서 “약한 인공지능”이 보여주는 수행능력을 끌어올리는데도 아직 갈 길이 멀다고 전망하기도 한다. 현재 통용되는 인공지능은 자율성을 갖춘 시스템이 아니라 사실상 세련되고 효율적인 자동화 시스템(automatized system)이라는 것이다. 이와 같은 평가가 옳다 하더라도, 인공지능윤리은 그 초점을 아직까지는 자동화보다는 자율성에 두고있다.

물론 여기서 말하는 자율성은 인간에게 흔히 부여되어온 자율성, 남의 영향에서 비교적 자유로운 상태에서 스스로의 정신을 통해 사고하고 판단하는 그런 절대적 자율성이 아니라, 인간의 입장에서 쉽게 예측하기 어렵고 통제가 점점 힘들어진다는 의미에서의 상대적 자율성일 것이다. 이런 자율성은 어쩌면 고도의 자동화와 잘 식별되지 않을 수 있지만, 어쨌든 현재 인공지능이 이런 상대적인 의미의 자율성을 획득해가고 있는 것은 사실이다.

이 점에서 인공지능윤리는 이전의 다른 응용 윤리 분야들, 예컨대 동물윤리와 대조된다. 동물은 어느 정도의 자율성을 분명히 가지는 것 같은데, 문제는 특히 가축의 경우 이미 기나긴 역사를 통해 인간의 통제 아래 있게 되면서 쉽게 예측가능하고 통제가능해졌다는 사실이다. 이는 빠르게 진보하면서 인간의 예측과 통제를 서서히 벗어나거나 혹은 그럴지 모른다는 불안을 야기하는 인공지능과는 사뭇 다르다. 문제시되는 비인간 자율성의 성격이 다르므로, 두 윤리의 내용도 달라질 수밖에 없다.

인공지능의 자율성은 윤리와 기술, 윤리와 산업의 관계 또한 변화시키고 있다. 인공지능은 이미 인간의 다양한 삶의 영역으로 깊숙이 들어와 있으며, 따라서 인공지능의 개발 문제는 우리의 일상생활에 직접적이고 즉각적인 영향을 끼칠 수 있다. 작게는 사적 정보의 유출부터 크게는 거대 시설에서 일어나는 사고까지, 인공지능이 야기할 수 있는 피해는 다양하다. 이 때문에 인공지능은 그 개발 단계부터 윤리적 고려가 개입하게 된다. 과학기술에 대한 윤리적 고려는 종종 해당 분야의 종사자들에게 연구와 개발의 방해물처럼 여겨지곤 했는데, 인공지능에서는 오히려 개발과 설계에서부터 윤리적 고려가 적극적으로 요청되고 있는 것이다. 아무도 윤리적 선택이 필요한 상황에 제대로 대처하지 못하는 자율주행자동차를 타려고 하지 않을 것이다. 누구도 걸핏하면 도덕적으로 의심스러운 언어표현을 구사하는 앱과 채팅을 하려고 하지 않을 것이다.

인공지능이 도덕적인지가 그것의 상품화 가능성에 결정적인 고려사항이 되는 것이다. 윤리적 접근과 현장에서의 인식 사이에는 자주 갈등이 있어왔는데, 인공지능윤리에서는 갈등보다는 협력이 이루어지고 있다. 비인간 자율성은 학술적 담론을 넘어 이미 긴급한 삶의 문제가 되었고, 따라서 학자와 연구자들은 물론 실제 개발을 맡고 있는 현장의 개발자와 사업가, 정책을 만들고 실행할 법조계, 무엇보다 실질적인 인공지능의 영향력에 노출된 시민들 사이의 적극적이고 진지한 소통과 협력을 요구하고 있다.

나아가 인공지능이라는 현상은 그 자체로 융합적 연구를 강제하는 측면이 있다. 실제로 인공지능윤리는 여러 응용윤리분야들 중에서도 학제간 연구, 융합연구가 가장 활발한 축에 속한다. 전문윤리학자는 물론 인공지능 개발자부터 법학자, 사회학자, 문화연구자 등이 앞다투어 인공지능윤리에 뛰어들고 있는 것이다. 이 또한 통제되지 않을 경우 큰 위험을 초래할 수 있다는 비인간 자율성의 특성에서 기인한다고 할 수 있다.

인공지능윤리가 다루는 주제들은 다양하다. 해결이 시급한 현안으로는 인공지능 개발 윤리가 있다. 데미스 하사비스와 일론 머스크 등이 2017년에 발표한 아실로마 인공지능 원칙(Asilomar AI Principles) 같은 것이 대표적인 사례가 될 것이다. 우리는 인공지능을 개발할 때도 지킬 것은 지켜야 한다. 그런데 무엇을 지켜야 하며 왜 지켜야 하는가? 인공지능 관련 법안과 윤리 수칙 제정 또한 인공지능윤리의 주요 주제다. 예컨대 지난 4월 21일 유럽연합에서 공표한 입법 초안의 내용과 근거는 무엇인가? 문제는 없는가? 있다면 어떤 대안이 있을 수 있는가? 이들은 인공지능에 대해 인간이 무엇을 할 것인가, 또는 무엇을 해야 하는가와 관련된 문제들이다.

그러나 인공지능윤리가 다루는 범위는 그보다 훨씬 넓고 다양하다. 가령 인공지능을 어떻게 도덕적으로 만들 것인가? 이것이 인공도덕행위자(Artificial Moral Agent, AMA)의 문제다. 이런 문제들은 도덕이나 윤리에 대해 근본적인 질문들을 다시 불러일으킨다. 로봇이나 인공지능을 비롯한 인공물이 윤리적으로 행위한다는 게 도대체 무슨 뜻인가? 인공물이 도덕적 행위자가 된다는 것이 기술적인 수준에서, 또는 원칙적인 수준에서 가능하긴 한가? 인공물이 도덕적 행위자라면, 그것은 자신의 행위에 책임을 질 수 있는가? 인공물에게 책임을 묻는 것이 가당키나 한가? 몇몇 질문은 SF 소설 같은 이야기처럼 들릴 수도 있지만, 이들은 그 자체로 심원한 문제일 뿐 아니라 앞으로 직면할 가능성이 있는 윤리적 쟁점들이다. 이런 질문들에 대답하려는 노력은 인공지능의 활용은 물론 개발에 있어 원칙적인 수준의 지침을 줄 수도 있을 것이다.

언급된 문제들은 파고들다 보면, 자주 윤리학은 물론 행위 이론이나 인식론, 형이상학과 인간학 등에서 유지되어오던 직관들을 심각하게 재고하게 된다. 이런 점에서 인공지능윤리는 주어진 개념의 내용을 분석하는 개념분석(conceptual analysis)을 넘어서, 새로운 개념을 창조하는 개념공학(conceptual engineering)을 시도하기를 자극하고 있다고 볼 수도 있다. 인공지능윤리는 음미되고 해결되어야 할 문제들의 집합이자, 동시에 인간중심의 관념과 사고를 뒤흔들 수 있는 잠재성의 중심인 것이다.
 

문규민 (중앙대학교 인문콘텐츠연구소 HK연구교수)

AI타임스 링크: [칼럼이 있는 AI톡]⑪ 인공지능윤리, 그 잠재성의 중심 

중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED