중앙대학교 인문콘텐츠연구소

HK+인공지능인문학

아카이브칼럼

칼럼

글보기
인공지능의 국방분야 활용: 혁신과 안전성의 균형
Level 10조회수105
2023-06-13 13:53


 

인공지능 기술은 혁신적인 발전을 이루고 있다. 이미 자율주행 분야의 핵심 기술로 자리잡았고 최근 ChatGPT와 같은 자연어 처리 기술은 창작의 영역에서 부터 코딩, 대학 시험, 변호사 시험 등의 테스트를 통과하며 일정수준 이상의 성능을 보여주고 있다. 또한, 굳이 전공자가 아니더라도 깃허브, 유튜브 등의 매체를 통해 공유되는 인공지능 활용법과 결과물을 보면 인공지능의 시대라고 말할 수 있을 정도다. 인공지능 기술은 국방분야에서도 큰 관심을 받고 있으며 전장 예측 모델링, 데이터 분석, 그리고 전투 판단 등 다양한 분야에서 활용된다. 하지만 국방분야에서 인공지능 기술을 활용함에 있어 고민해야 할 요소가 존재한다. 특히, 국방분야에서는 인공지능의 추론 결과가 인간의 생명과 직결된다는 사실을 고려하여 인공지능의 제어가능성을 포함한 신뢰성과 안전성에 대한 고민이 필요하다.

인식 기술의 개선

인공지능의 인식 기술을 활용하면 감시 및 정찰의 효율성을 높이는 방안을 모색할 수 있다. 예를 들어, 얼굴 인식이나 복장 인식기술을 이용하여 적의 신원을 파악하거나, 시야가 가려진 전장환경에서 전장 상황을 면밀히 파악할 수 있다. 이러한 경계감시 시스템은 CCTV나 무인기 등에서 수집된 영상 데이터를 분석하여 이상행동이나 위험상황을 신속하게 파악할 수 있다. 이러한 기술을 활용하면 경계지역의 안전성을 확보할 수 있을 뿐 아니라 사람이 접근하기 어려운 지역에 대한 정찰에도 도움을 준다. 예를 들어 사람이 직접 들어가서 정찰하기 힘든 지뢰밭과 같은 지역에서 인공지능 기술을 활용한 자율 로봇을 활용하면 위험을 줄이면서도 감시정찰 능력을 향상 시킬 수 있다. 또한, 자율 로봇은 위험한 환경에서 작업하거나 적의 침입을 탐지하여 적극적인 대응을 할 수 있는 장치로 사용될 수도 있다.

군사작전의 효율성과 정확성 증대

인공지능 기술을 군사작전에 활용하면 다양한 장점이 있다. 첫째, 인공지능 기술을 이용해 전투 상황에서의 적 위치와 동선을 예측하면, 아군 병력의 안전을 확보 할 수 있다. 둘째, 병력 배치와 행동 패턴을 최적화하면 전투 효율성을 높일 수 있다. 셋째, 습득한 데이터를 이용하여 다양한 작전 시나리오를 시뮬레이션하고 최적의 전략을 도출하면, 전투 중 예상치 못한 상황에서도 신속하고 정확한 대처가 가능하다. 넷째, 무인기나 자율주행 차량을 활용하면 인명피해를 줄이면서 작전을 실제로 실행할 수 있고 신속성 및 정확성을 높일 수 있다. 하지만 인공지능 기술을 군사작전에 활용하는 것은 단점도 있다. 첫째, 인공지능이 도출한 지휘결심 및 전술에 대한 책임소재가 불분명하고 실행에 따른 위험성이 발생할 수 있다. 둘째, 인공지능 기술의 판단 오작동으로 인한 작전 실패의 위험이 있다. 셋째, 해킹당할 경우 전략 전술이 사전에 유출되는 사이버 보안 위험이 발생할 수 있다. 따라서, 인공지능 기술을 군사작전에 적용하려면 이러한 장단점을 고려한 적절한 활용방안이 연구되고 있다.

군수산업의 혁신

인공지능 기술은 군수산업 분야에서도 매우 중요한 역할을 할 수 있다. 예를 들어, 무기 체계의 성능개량, 전투지원체계, 유지보수 및 군수 관리를 더욱 효과적으로 수행할 수 있다. 미국을 비롯한 몇몇 국가에서는 이미 주요 병력을 무인화 자동화하고 체계적으로 관리하려는 연구가 결실을 맺고 있다. 과거와는 달리 국방력의 척도가 단순히 재래식 병력의 양적 우위가 아닌 무기의 질적 수준과 이를 운용하는 체계의 첨단성과 연관되어 있음을 최근의 크고 작은 전쟁사례가 보여준다. 이를 활용하는 주체의 기술 성숙도, 군사 규격, 비용 등의 문제 및 무기체계 개발 프로세스의 보완 등도 빠르게 발전하는 추세이다.

치명적 자율 무기에 대한 우려

인공지능 기술을 군사 작전에 활용하는 것은 매우 매력적인 선택지이지만, 신중히 고민해야 할 문제가 있다. 바로 치명적 자율 무기의 무분별한 사용에 대한 문제이다. 치명적 자율 무기란, 작전 중에 사람의 개입 없이 자동으로 적을 공격하는 무기를 말한다. 이렇게 되면 매 순간 인간의 개입이 어려워질 수 있어, 군사 작전에서의 인간의 역할이 축소될 수 있다. 인공지능의 발전은 그 신뢰성과 안정성을 기반으로 개발되고 있으므로 앞으로 점점 더 정교해질 것이다. 우리는 가까운 미래에 우리가 설계하고 훈련시킨 기준의 신뢰성과 안정성을 보장하는 모델을 얻게 될 것이다. 그러나 인공지능의 능력을 활용하여 무엇을 할 것인가?에 대한 문제는 각 나라의 정치적인 이해관계 혹은 일부 독재자의 단독 판단에 의해 결정될 수 있다. 만약 우리가 그 결정의 옳고 그름을 판단하기 전에 군사행동이 우선적으로 이어진다면 치명적 자율 무기의 남용으로 인한 사고 가능성을 배제하기 어렵다. 그러므로 이러한 문제점들을 국제적으로 논의하고, 적절한 규제를 마련하는 것이 필요하다. 인공지능의 아버지인 제프리 힌튼 교수는 최근 CBS와의 인터뷰1)에서 치명적인 자율무기의 개발에 대한 우려를 나타냈다. 이 인터뷰에서 제프리 힌튼 교수는 자율무기가 사람들을 대신해서 결정을 내리게 되면서 생기는 문제점에 대해 언급하였다. 자율무기는 사람의 지시 없이 스스로 상황 판단을 하고 결정을 내릴 수 있기 때문에 그 결정이 인간의 도덕적, 윤리적 판단과 다를 경우 문제가 될 수 있다. 예를 들어, 우리는 ‘자가치유 지뢰밭’이라고 이름 지어진 인공지능 지뢰들이 목표를 더 정확하게 제거하기 위해 스스로 자신의 위치를 바꾸면서 최적의 지뢰밭을 만들도록 개발되고 있다는 측면을 고려할 필요가 있다. 이것은 공학적으로는 최적의 해를 찾아 물체의 위치를 재배치하는 기술의 일부일 수 있지만 우리가 이런 기술에 ‘치유’라고 이름을 붙이는 것에 대한 고민없이 막대한 연구비가 사용되는 것에 대한 충분한 고민은 아직 부족하다는 것이다. 이것은 AI 정렬(alignment) 문제로 여겨지며, 모델의 수학적 정교함과 안정성을 보장하는 것과는 다르다. 우리가 초지능을 만들어내기에 앞서 인공지능의 목표가 인간의 가치와 일치하도록 하는 제어 문제를 풀 수 있는지를 다루는 문제이다. 이를 통해 인간의 지시에 따라 자율무기를 제어하는 것이 중요하다고 제프리 힌튼 교수는 재차 강조하고 있다. 최근 제프리 힌튼 교수는 ‘뉴욕 타임즈’에 보낸 성명을 통해 자신의 업적을 후회한다는 의견을 내고 구글을 퇴사하기로 결정했다2). 여기서 우리는 냉전시대의 과학의 사회적 책임과 국가 권력과의 관계에 대한 문제를 남긴 핵폭탄의 아버지 오펜하이머의 고민을 엿볼 수 있다. AI의 대부의 경고는 자율무기의 발전에 대한 우려가 커지는 가운데서 무시할 수 없는 메시지이다.

앞으로의 방향

인공지능 기술이 국방분야에서 새로운 도약을 이루고 있다는 것은 분명하다. 특히 최근에는 대규모의 정보를 다루는 적 위치와 동선 예측, 병력 배치와 대응의 최적화 등의 일을 빠르고 정확하게 처리해야 하기 때문에 이러한 임무를 사람이 대신하기 어려워진 것도 사실이다. 이러한 기술의 활용은 군사작전의 효율성과 정확성을 높일 뿐만 아니라, 재래식 군수산업의 혁신을 이루는데도 큰 역할을 할 것이다. 하지만 전장에서 전투원을 도와주는 모든 임무 수행과 그에 따른 결과들은 기본적으로 사전에 인공지능을 훈련시킨 인간이 의도한 방향에 따라 결정된다는 것을 잊어서는 안된다. 인공지능은 사람의 피드백에 따라 점점 정교해지며, 우리는 인공지능의 성능이 충분히 신뢰할 수 있고 안정성이 보장될 때까지 이러한 작업을 반복할 것이기 때문이다. 인공지능을 우리의 가치와 일치하도록 훈련하고 사용하기 위해서 책임감 있는 접근이 필요한 때이다.

정광용 (한화시스템 수석연구원) 

________________________
1) https://www.cbsnews.com/news/godfather-of-artificial-intelligence-weighs-in-on-the-past-and-potential-of-artificial-intelligence/
2) https://www.bbc.com/korean/articles/crgm8d787l7o


중앙대학교 인문콘텐츠연구소
06974 서울특별시 동작구 흑석로 84 중앙대학교 310관 828호  TEL 02-881-7354  FAX 02-813-7353  E-mail : aihumanities@cau.ac.krCOPYRIGHT(C) 2017-2023 CAU HUMANITIES RESEARCH INSTITUTE ALL RIGHTS RESERVED