인공지능을 악용한 테러를 막기 위해서 어떻게 해야 할까요. 한국테러학회의 이만종 회장은 최근 “인공지능을 악용한 미래 테러 가능성과 대응전략’이라는 논문에서 몇 가지 대응전략을 제시했습니다. 이 회장은 먼저, 인공지능의 권한 책임소재의 명료화를 주장하며 인공지능의 오작동, 악용 및 남용 등으로 인한 문제를 해결하기 위해서는 인공지능의 권한 설정과 결과에 대한 책임 소재문제 등을 명확히 할 필요가 있다고 강조했습니다. 또한 그는 자율살상무기시스템 개발의 윤리적 타당성을 검토해야 하며 테러리스트를 제압할 수 있는 기술적 대응 능력을 유지해야 한다고 덧붙였습니다.
군사 로봇, 드론, 전자기파, 사이버 테러 등 인공지능 악용 가능성 커
인간과 기계의 대결, 영화 ‘터미네이터’를 기억하시나요. 최근까지도 시리즈가 이어지고 있으니 영화에 관심있는 사람이라면 다들 아실테지만 기억을 한번 상기시켜보죠. 줄거리는 대략 이렇습니다. 인간이 만든 인공지능 컴퓨터 전략 방어 네트워크가 스스로의 지능을 갖추고는 인류를 핵전쟁의 참화를 일으켜 30억이라는 인류를 잿더미 속에 묻어버립니다. 영화에서는 이 때를 1997년으로 상정했지요.
이 와중에 비상한 지휘력과 작전으로 인간들을 이끌던 사령관 존 코너는 반기계 연합을 구성, 기계와의 전쟁을 시작하면서 상황은 반전됩니다. 이에 기계는 존 코너의 탄생 자체를 막기위해, 타임머신에 터미네이터를 태워서 보냅니다. 2029년 상황에서 1984년의 L.A로 이동하는 것이죠. 이하 내용은 대강 기억하실 겁니다.
원조 격인 이 터미네이터 첫 편이 나온 해가 자그마치 1984년 입니다. 당시에 핵전쟁의 시기를 97년으로 삼고, 다시 2029년에 기계가 1984년으로 살인 기계를 보낸다는 설정이 2017년, 현재 상황에서 보면 허무맹랑한 이야기 같으면서도 한편으로는 어쩌면 ‘충분히’ 있을 수 있는 일일 것 같은 생각이 드는 이유가 뭘까요. 가상 현실(VR)이 현실이 되는 기술의 진보처럼 인공지능 ‘기계의 반란’이 현실이 될 수 있다는 우려감 말이죠.
영화 터미네이터 제니시스의 한 장면.
인류는 꼭 1년전, 이 땅에서 벌어진 구글 알파고와 이세돌의 바둑 대결에서 이와 같은 ‘우려스러움’을 잠깐 경험했습니다. 이 세기의 대결 이후에 인공 지능 관련 행사에 가보면 ‘인공지능이 인간을 대체하는 것인가’라는 논제와 질문이 빠지지 않았습니다. 대부분의 결론은 인공지능은 인간을 보완하는 존재이며, 이에 인공지능을 두려워할 필요가 없다는 말이었습니다. 물론 반대의 주장도 끊임없이 제기되어 왔고 이를 준비하자는 주장도 존재합니다. 가령,
인공지능이 인간을 해칠 것이라는 말이 그것이죠.
물리학자 스티븐 호킹, 테슬라의 일론 머스크, 애플 공동 설립자 스티브 위즈니악, 딥마인드의 데미스 하사비스, 그리고 세계적 석학 노엄 촘스키 등 2500명이 넘는 인공지능, 로봇공학 연구가들들은 인공지능 무기에 반대하는 성명서에 동참했습니다. 2015년 국제인공지능 컨퍼런스에서도 공개된 성명서에는 “주요 군사국가가 인공지능무기 개발을 시작하면 전세계 인공지능무기 군비경쟁은 불가피할 것으로 전망한다”고 경고했습니다.일론 머스크는 인공지능을 두고, “우리는 악마를 소환하고 있다”고 말했고, 스티브 위즈니악은 “인공지능 무기가 발전하면서 화학, 핵무기에 이은 제3의 전쟁 혁명이 될 수 있다”며 군사적 사용을 금지하는 국제협약 마련을 촉구하기도 했습니다.
일론 머스크“우리는 악마를 소환하고 있다”
그렇다면 인류에게 이렇게 재앙을 불러 일으킬 수 있는 인공지능을 이용한 테러에는 어떤 게 있을까요. 먼저, 로봇을 악용한 테러가 있습니다. 전문가들은 전쟁용 군사로봇이 지금까지 가장 강력한 무기였던 핵무기보다 더 위험한 기술일 지도 모른다고 전망하고 있습니다. 전쟁을 막는 최후의 보루는 인간의 윤리 의식인데 로봇은 인간의 윤리를 무력화시킬 수 있기 때문입니다. 인공지능시대에 테러리스트들은 인공지능과 로봇을 사용해 사람들이 가장 많이 모이는 장소를 공격할 것으로 보입니다. 미국은 이미 이라크에서 최첨단 무인 로봇공격기 리퍼와 프레데터, 폭발물 탐지용 소형로봇인 피도와 마크봇, 텔런 등 4천 여대의 로봇을 실전에 배치한 바 있습니다.
다음은 드론을 이용한 테러입니다. ‘하늘을 나는 폭탄’ 드론은 테러를 너무도 간단하게 만들 수 있다는 점에서 공포의 대상입니다. 이미 수니파 극단주의 무장단체 IS는 이라크와 시리아에서 정찰용 드론을 사용하고 있으며 9,11 테러와 같은 효과를 내기 위해 대규모 살상이 가능한 동시다발 드론 공격 연구에 몰두하고 있다네요. 이들은 온라인 쇼핑몰 아마존에서도 구입할 수 있는 상업용 초소형 드론을 이용한다고 하니 아이러니가 아닐 수 없습니다. 지난해 8월까지 이라크에 주둔했던 션 맥펄랜드 미국 준장은 “드론은 스스로 움직이는 적”이라고 경고할 정도로 드론은 향후 더 위험한 테러수단이 될 전망입니다.
또한 컴퓨터 기반의 인공지능 자체를 무력화 시킬 수 있는 전자기파를 악용한 테러도 있습니다. 전자기파(EMP) 폭탄은 강력한 전자기파를 발생시키는 무기로 일정범위 내의 전자 및 전기장치에 피해를 입힐 수 있습니다. 사이버상의 테러는 해킹 조직이 정부조직읜 전산망을 장악하거나 군과 외교 주요 인사들의 스마트폰을 공격하는 사례입니다. 인공지능과 로봇, 무인기와 사물인터넷 등을 포함한 모든 미래의 기술을 이어주는 거대한 연결 통로가 사이버 공간이라는 점에서 사이버 테러에 대한 중요성도 매우 크다고 할 수 있습니다.
인공지능의 권한 책임소재의 명료화, 법적인 장치 우선되어야
이와 같은 인공지능을 악용한 테러를 막기 위해서 어떻게 해야 할까요. 한국테러학회의 이만종 회장은 최근 “인공지능을 악용한 미래 테러 가능성과 대응전략’이라는 논문에서 몇 가지 대응전략을 제시했습니다. 이 회장은 먼저, 인공지능의 권한 책임소재의 명료화를 주장하며 인공지능의 오작동, 악용 및 남용 등으로 인한 문제를 해결하기 위해서는 인공지능의 권한 설정과 결과에 대한 책임 소재문제 등을 명확히 할 필요가 있다고 강조했습니다. 또한 그는 자율살상무기시스템 개발의 윤리적 타당성을 검토해야 하며 테러리스트를 제압할 수 있는 기술적 대응 능력을 유지해야 한다고 덧붙였습니다.
특히, 이 회장은 인공지능 기술의 악용 오용 방지를 위한 법 제도의 마련을 강조했습니다. “인공지능기술은 인간의 삶의 질을 향상시키고 인간의 생명과 자유를 위협하는 테러 등의 위협을 예방 극복할 있도록 개발이 이루어져야 할 것이다. 오작동의 기술적 극복 노력은 물론 테러 범죄의 악용방지를 위한 국제적, 입법적, 보안적 장치들을 마련해 나가야 하며 궁극적으로 우리가 테러를 근절하기 위해서는 따뜻하고 열린 사회가 테러 대비의 출발점이 되어 할 것”이라고 했습니다.
재작년에는 터미네이터 개봉 31년 만에 다시 ‘터미네이터 제니시스’라는 시리즈가 개봉했습니다. 한국 배우 이병헌이 진화된 로봇 T-1000역으로 분해 더욱 화제가 됐죠. 영화에 대한 평가가 어찌되었든 이 영화의 감독을 맡은 앨런 테일러는 “터미네이터 시리즈는 대작 액션 영화임에도 불구하고 ‘인간이 무엇인가’에 대한 질문을 던지는 주제가 강렬하게 다가왔다”고 말했답니다. 가만히 보면 인간을 지키며 기계와 싸우는 기계(터미네이터)의 인간미적인 모습과 강력한 모성애를 보여주는 존 코너의 어머니 사라코너 역할 역시, 인간의 힘을 보여주는데 영화는 많은 장면을 할애합니다. 결국 인공지능을 갖춘 무시무시한 사이보그의 폐해도 인간의 원초적인 힘에서 해결책을 찾아야 하지 않겠냐는 생각을 해봅니다. 인간이 인공지능을 개발한 이유가 인간 자신에게 해를 끼치기 위한 일이 아니라는 목적을 분명히 알아야하기 때문입니다.