인텔은 AI가 사람을 소외시키지 않고, 비윤리적으로 데이터를 활용하지 않으며, 인종 간 차별을 하지 않도록 책임감을 가지고 AI를 개발해 나가고 있다.
“책임감 있게 활용하는 AI의 힘”
AI 웹사이트 통해 이니셔티브·제품·파트너십 공개
오용 방지·내부 감독·제반 관리 절차 등 노력 견지
인공지능(AI)은 우리의 일상 전반에 적용되기 시작한 이후, 삶의 중요한 부분으로 거듭났다.
신경 질환을 앓고 있는 사람들을 위한 AI 음성 뱅킹 시스템, 자율주행 차량의 안전 도모, 강수량 패턴과 인구 추세를 더욱 잘 이해하도록 돕는 연구 등 다양하게 적용된다. AI는 인간이 마주한 장애물을 극복하고, 더욱 안전한 사회를 만들며, 더 나은 미래를 건설하기 위한 해결책을 개발할 수 있도록 지원한다.
한편 AI를 잘못 설계할 경우 인간에게 해를 끼칠 수 있다는 매우 당연하지만 현실적인 문제는 항상 중요 사항으로 염두해야 한다.
인텔은 AI가 사람을 소외시키지 않고, 비윤리적으로 데이터를 활용하지 않으며, 인종 간 차별을 하지 않도록 책임감을 가지고 AI를 개발해 나가고 있다.
인텔은 AI 12일 웹사이트를 통해 AI를 위한 이니셔티브, 제품 및 파트너십 등을 공개한다. 책임감 있는 AI를 위한 전사적인 노력을 선보이며 ‘원 인텔(One Intel)’ 접근 방식을 확대했다.
인텔은 AI 기술 개발과 관련한 윤리적 위험을 인식하고, 전 산업 분야에서 롤모델이 되고자 노력한다. 제품 수명주기 전반에 걸쳐 AI 기술을 책임감 있게 발전시키기 위해 AI 오용을 방지하고, 내부 감독 및 제반 관리 절차 등 노력을 견지하고 있다.
■ 검토 과정
인텔의 AI 자문 위원회(Responsible AI Advisory Council)는 AI 프로젝트의 수명주기 전체에 걸쳐 엄격한 검토 과정을 수행한다.
위원회는 △인권 △관리 감독 △AI 활용 이유 △보안 △안전 및 신뢰성 △개인 정보 보호 △형평성 및 포용성 등 6가지 핵심 영역에 대한 인텔의 윤리적 영향 평가를 통해 제품 및 프로젝트에 대한 검토 과정을 수행한다.
AI 프로젝트 내 잠재적인 윤리적 위험을 평가 및 완화하는 것이다. 위원회 구성원들은 전체적인 일관성 및 규정 준수를 위해 AI 프로젝트 개발 팀을 위한 교육 및 피드백 등을 지원한다.
■ 다양성 및 포용성
AI 알고리즘의 편향성은 도구 및 프로세스만으로는 해결할 수 없다. AI 기술은 다양한 배경과 의견 그리고 경험을 가진 많은 사람들에 의해 형성되어야 한다.
인텔은 AI 실무자들과 각각의 기술이 공정성을 유지하고자 한다. 사회과학 연구 결과를 활용해 데이터, 문제 공식화 또는 모델링에서 편견이 발생할 가능성이 있는 상황, 예상하지 못한 위험한 상황을 이해할 수 있도록 노력하고 있다.
인텔은 모든 AI 교육 프로그램에 윤리적인 요소가 핵심 요소로 포함돼야 한다고 인식한다. 인텔은 AI 미래 인재 육성 프로그램(AI for Future Workforce Program) 등 디지털 시대를 준비하고자 하는 프로그램들을 통해 학생들이 AI 윤리 원칙을 접할 수 있도록 한다. 또한 다양한 배경과 전문성을 가진 학생들을 보유하고 있는 지역 대학 또는 다양한 배경을 가진 사람들과 교류할 수 있는 새로운 방법을 모색한다.
■ 프라이버시 및 보안
인텔의 보안 연구개발 팀은 안전한 AI 기술을 제공하고, 데이터 무결성, 개인정보보호 및 정확성을 유지하고자 노력한다.
인텔은 신뢰할 수 있는 AI를 구축할 수 있도록 하드웨어 및 소프트웨어에 걸쳐 검토한다. 프라이빗 AI 연구소(Private AI institute)는 사람들이 개인정보를 더 잘 보호할 수 있는 방법을 교육한다. 인텔의 연합 학습 및 openFL 연구는 민감한 데이터를 기반 유용한 AI 기술을 개발하는 데 초점을 둔다. 또한 미 방위고등연구계획국(DARPA) GARD 프로젝트에 참여해 AI 조작 여부를 검증하는 방법을 연구한다. 앰버 프로젝트(Project Amber)는 고객과 파트너가 엣지에서 클라우드까지 인프라를 더 잘 신뢰할 수 있는 방법을 제공한다.
인텔은 딥페이크 탐지 기술 및 딥페이크에 활용된 원본 자료를 결정하는 도구를 인텔 제품에 통합하고, 고객이 자사 플랫폼에 도입할 수 있는 방법을 모색해왔다. 딥페이크 탐지, 머신러닝 및 AI 활용 가짜 미디어 제작 또는 수정분야, 콘텐츠의 타당성을 확인하는 미디어 인증 기술 등을 연구해왔다.
■ 협업
인텔은 중요한 연구에 지속적으로 투자하고, 개인정보보호, 보안, 인간 및 AI 간 협업, 지속가능성 분야의 석학들과 협업하고 있다.
인텔은 인간과 AI 간 협업의 가능성도 열어 둔다. 이를 위해 필요한 역량을 개발, 내부적으로 설계 및 제조 공정에 적용 중이다. 자사 제품은 물론 산업 전반의 발전과 공통의 도전 과제를 해결할 수 있도록 인텔의 입장과 관행을 투명하게 공개하려고 노력한다.
인텔은 인권 & AI 라운드테이블, 글로벌 비즈니스 이니셔티브, 파트너십 온 AI, 성평등 구축을 위한 약속 등 포럼에 참석하고 있다.
AI는 큰 진전을 이뤘지만 아직 개척해야 할 부분이 많이 남아있다. 인텔은 위험을 감소하고 긍정적인 변화를 이끌어 내기 위해 AI을 사용하는 방법을 지속적으로 모색하고 있다. 다각적 접근법을 통해 고도화하고, 인간-AI 협업을 통해 인간의 잠재력을 증폭시키는 데 초점을 맞춘다. AI의 긍정적인 힘을 발휘하기 위해 인텔과 관련 업계의 지속적인 협력이 필요할 것이다.