중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브언론에 비친 AIH

언론에 비친 AIH

글보기
'인공지능 윤리 대전' 유튜브로 온라인 개최
Level 10조회수86
2021-09-09 00:34

'인공지능 윤리 대전' 유튜브로 온라인 개최

AI 로봇윤리, 자율주행차 윤리 가이드라인, 한국형 모럴 튜링테스트 등 강연

승인 2020.09.17  21:57:54


 ▲ 중앙대학교 김형주 교수가 인공지능 윤리대전에서 강연하고 있는 모습 


한국인공지능윤리협회(KAIEA, 회장 이청호)가 ‘인공지능 윤리 대전 – AI for Human’ 컨퍼런스를 17일 유튜브를 통해 온라인으로 개최했다.

이날 행사는 전창배 인공지능윤리협회 이사장의 소개사를 시작으로, 서울교육대학교 변순용 교수가 ‘한국 AI 로봇윤리원칙의 한국적 전개’를, 홍익대학교 황기연 교수가 ‘한국의 자율주행차 윤리 가이드라인’을, 중앙대학교 김형주 교수가 ‘AMA(인공적도덕행위자) 연구사례로서 한국형 모럴튜링테스트(K-MTT)’에 대해 순서대로 강연을 진행했다.

전창배 이사장은 “인공지능은 인간에게 도움을 주기 위한 기술로 이미 많은 분야에서 활용되고 있지만, 그만큼 많은 윤리적인 문제를 일으키고 있다”고 말했다.

전 이사장은 △가짜 영상을 만드는 기술인 딥페이크와 같은 악용 가능성 문제 △공정성 문제를 일으키는 인공지능 면접으로 대표되는 편향성 문제 △ 사람을 공격하거나 기물을 파손하는 로봇으로 인한 오류와 안전성 문제 △ AI스피커 이용자 녹음 및 녹취 논란으로 발생한 개인정보보호 문제 △ 사람을 살상할 권리를 로봇에게 위임할 수 있는지에 관한 킬러로봇 문제 등을 5대 AI 윤리적 이슈로 꼽았다.

아울러 “인공지능 윤리는 인공지능 발전을 위해 꼭 필요하다”며 “인공지능 윤리는 일종의 안전장치 역할을 해 고객이 신뢰할 수 있는 로봇을 만드는 데 기여할 것이다”라고 했다. 이어 “선하고 안전한 인공지능을 만들기 위해 사회적 합의를 통해 관련 규정이나 가이드라인을 마련하고 초·중·고 시절부터 윤리교육을 실시해야 한다”고 덧붙였다.

변순용 교수는 인공지능에 대해 윤리적인 문제가 발생하는 이유는 '자율성'에 있다며 “자동성이 복잡해지며 로봇과 인공지능이 스스로 자율성인 것처럼 보여지는 현상들로 인해 윤리적인 문제를 이야기할 수 있게 됐다”라고 설명했다.

변 교수는 인공지능 도덕성의 3가지 유형으로 △사용자의 명령을 무조건적으로 따르는 유형인 ‘명령의 무조건적 수행’ △ 시용자의 반응에 따라 결정하는 상벌에 따른 ‘결과주의’ △ 사용자와의 명령이나 기호를 넘어 사회적 기준에 따라 판단이 가능한 ‘사회적 규약 준수’ 등을 제시해 자율성의 정도에 따라 등급을 매겨야 책임과 보상의 정도를 나눌 수 있다고 설명했다.

여기서 더 나아가 윤리인증을 이원화해 자율주행 차량과 메디칼 로봇을 구분하는 것처럼 로봇의 종류에 따라 점검사항을 달리하는 ‘기준인증’과 ‘자율성 내지 윤리성 인증’을 구분해야 한다고 주장했다.

황기연 교수는 오늘 발표된 자율주행차 윤리가이드라인을 작성하기 위해 지난 4년간 국내외 윤리가이드 라인을 검토하고, 다양한 방법을 통한 국민 여론을 수렴한 뒤, 국내 전문가 42인을 대상으로 델파이 조사를 2차례 시행했다고 밝혔다.

황 교수는 “자율주행 자동차는 기계기 때문에 사고가 났을 때 책임을 질 수 없다. 가이드라인은 자율주행차를 이용하거나 제작하거나 관리하는 사람들이 자기에게 합당한 책임만큼을 져야한다는 분산책임 원칙을 적용했다”며 “투명성, 제어가능성, 책임성, 안전성, 보안성 등 5가지 원칙을 준수해야 책임을 면할 수 있다”고 말했다.

이어 “가이드 라인은 행위 주체들에게 원칙을 권고하고 책임을 분배하는 데 초점을 맞추고 있기 때문에 법과는 성격이 다르며, 가이드라인에 따라 제작하면 자율주행차가 사회에 들어왔을 때 충분한 수용성을 확보할 수 있을 것이다”라고 덧붙였다.

끝으로 “윤리 가이드라인은 정부가 확정해서 발표하는 게 아니라 사회적인 합의와 동의를 통해 정부에 건의하는 식으로 작성된다”며 “이번 과정에서 많이 제기되고 있는 의견을 참고자료로 활용해 수정·보완토록 하겠다”라고 말했다.

김형주 교수는 한국형 모랄 튜링테스트는 기본적으로 인공지능이 스스로 생각한다는 전제를 바탕으로 3가지 윤리적 단계를 설정해 이를 헬스케어 로봇에 적용하는 연구라고 설명했다.

[기사원문보기] 

+ PDF 전문 다운로드 : '인공지능 윤리 대전' 유튜브로 온라인 개최

중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED