작년에 이어 새해에도 국가 차원의 AI 기술 확산이 예상된다. 우리나라 정부는 디지털 심화 시대 초거대 AI 경쟁력 확보를 통해 글로벌 기술패권 확보를 목표로 총력을 기울이고 있다. 올해는 AI 분쟁을 해결하기 위한 AI 규범 마련에 귀추가 주목된다. 허위 정보를 생성하고 거짓말을 고하는 일명 환각 현상, 인종차별·성차별 등 AI 부작용의 우려가 대두됨에 따라 AI 신뢰성을 확보하기 위한 대책 마련에 전 세계가 본격적으로 나서고 있다.
▲2023년 10월 개최된 제4차 AI 최고위 전략대화(과기부 자료)
AI 산업 경쟁력 제고 위한 국가 청사진 추진
5월 ‘AI 안전성 정상회의’ 공동개최…AI 규범 선도
오픈 AI의 챗GPT 열풍에 이어 2024년에도 국가 차원의 AI 기술 확산이 예상된다. 우리나라 정부는 디지털 심화 시대 초거대 AI 경쟁력 확보를 통해 글로벌 기술패권 확보를 목표로 총력을 기울이고 있다.
과기부는 2023년 1월 ‘AI 일상화 및 고도화 계획’을 시작으로 4월 ‘초거대 AI 경쟁력 강화 방안’과 9월 ‘전국민 AI 일상화 실행계획’을 발표한 바 있다. 범부처 합동 전략을 수립함으로써 AI 일상화를 추진해온 결과 AI 기술은 전 국민·산업에 확산됐다.
특히 낮은 경쟁 성장률, 고금리·고물가 상황에서도 우리나라 AI 매출액은 21년 2.58조원에서 23년 5.20조원으로 연평균 41.9%가 상승했다. 정보화통계조사(한국지능정보사회진흥원)에 따르면 우리나라 기업이 디지털 전환을 주도하기 위해 AI 기술 및 서비스를 이용하는 비중이 30%에 가까운 것으로 나타났다.
정보통신기획평가원은 AI 적용 시 파급력이 높은 산업 분야로 △가상융합 △콘텐츠 미디어 △스마트제조 △유통 물류 △교육 △보안 △자율이동체 △서비스 로봇 △스마트시티 △스마트홈 △의료·헬스케어 등을 꼽았다. 이러한 산업을 중심으로 국가 차원의 투자가 촉구된다.
정부는 산업계의 수요에 대응해 민간·공공 영역에서 초거대 AI 서비스를 선도적으로 접목하는 방안을 마련해오고 있다. 주로 초거대 AI 모델 학습 및 추론을 위한 기반으로 양질의 텍스트 데이터를 대규모로 구축 및 개방했다. 법률, 의료 등 민간 전문영역 5대 분야 서비스에 적용하기 위한 프로젝트를 기획하고, 2024년 383억원 예산을 기반으로 초거대 AI 기반 대국민 혁신서비스 개발 지원을 위한 플랫폼(API) 이용과 교육 관련 과제를 진행할 예정이다.
AI 전쟁은 AI 서비스 측면뿐만 아니라 AI 반도체, 데이터센터 등 핵심 인프라에 대해서도 전개되고 있다. GPT-4 터보까지 발표한 오픈 AI의 챗GPT, MS 빙, 구글 바드, 테슬라 그록, 네이버 하이퍼클로바X, SKT 에이닷 등 대형 언어 모델이나 멀티 모달 모델의 규모가 점점 초거대 되고 있는 가운데, AI 반도체 기반 서버가 핵심 인프라로 떠오르고 있다. 정부는 지난 10월 광주 AI 데이터센터 개소 등 컴퓨팅 자원을 제공했다.
■ AI 윤리 확보 대책 마련 시급
▲2023년 11월 英 AI 안전성 정상회의(과기부 자료)
올해는 AI 분쟁을 해결하기 위한 AI 규범 마련에 귀추가 주목된다. 허위 정보를 생성하고 거짓말을 고하는 일명 환각 현상, 인종차별·성차별 등 AI 부작용의 우려가 대두됨에 따라 AI 신뢰성을 확보하기 위한 대책 마련에 전 세계가 본격적으로 나서고 있다.
특히 미국은 자율규제, EU는 강력규제가 추진되는 가운데, 우리나라 실정에 맞는 균형적 접근이 강조된다. 지난 28일 AI 규범 논의 간담회에서 과기부 박윤규 제2차관은 “미국, EU 뿐만 아니라 G7 ‘히로시마 AI 프로세스’, UN ‘고위급 AI 자문기구 운영’ 등 국제 사회 차원의 AI 규범에 대한 주도권 경쟁이 치열하게 진행 중”이라고 설명했다. 김앤장 법률사무소 강지원 변호사는 “최근 EU의 AI 법안은 기존 집행위 안에 비해 금지 대상 AI를 확대하고, 범용 AI 규제를 신설했다”고 말했다.
국내에서는 2020년 마련한 국가 AI 윤리 기준을 바탕으로 지속적인 간담회 등을 통해 법 제도 마련에 대한 논의가 진행되고 있다. 지난 6월 국내 초거대 AI 기업과 중소·스타트업으로 구성된 ‘초거대 AI 추진 협의회’가 발족했고, 민간 중심 ‘AI 법제정비단’과 ‘AI 윤리정책 포럼’에서 법·제도 정비 과제 발굴과 관련 정책 수립이 적극 추진되고 있다. 지난 10월에는 ‘제4차 인공지능 최고위 전략대화’가 열려 네이버·LG·SKT 등 초거대 AI 기업들을 대상으로 AI가 생성한 결과물에 대해 ‘가시적 워터마크’ 단계적 도입에 대해 동의도 이뤄졌고, 2024년 1분기 고위험 AI 해설서가 마련될 예정이다.
또한 지난 11월 전 세계 28개국 AI 담당 장관 및 구글, 마이크로소프트, 오픈 AI, 아마존 등이 참석한 ‘AI 안정성 정상회의’에 과기부가 삼성전자, 네이버 등 국내 주요 기업과 함께 참여했다. 우리나라는 디지털 권리장전을 기반으로 다음 AI 안전성 정상회의를 영국과 공동 개최(잠정 5월, 우리나라 예정)하기로 했다. 이로써 주최국으로서 AI 안전성 의제를 주도적으로 제안할 수 있게 됐다.
과기부는 “AI 산업이 국가 성장과 도약을 견인할 핵심 성장기반이라는 인식하에 2024년에도 세계에서 AI를 가장 잘하는 국가로 도약하기 위해 원천기술 선점·기업 육성·인재 양성 등 관련 정책 수립·추진에 최선을 다할 것”이라며, “AI 산업을 체계적으로 지원하는 동시에 부작용에 대응할 수 있는 법적 기반을 담고 있는 AI법의 조속한 제정과 함께 AI 안전성 정상회의에서 우리가 AI에 관한 규범을 선도해나갈 수 있도록 최선을 다하겠다”고 말했다.