착한 AI는 없다

[이슈 인사이드 | IT] 최연진 한국일보 IT전문기자

초창기 구글에서 인상적이었던 것은 ‘악해지지 말자’(Don't be evil)라는 모토였다. 2010년 미국 마운틴뷰에 위치한 구글 캠퍼스를 방문했을 때 이를 확인시켜 주는 듯한 풍경을 봤다. 20여개 건물로 구성된 구글 캠퍼스 맞은편에 구글이 매입한 끝이 보이지 않는 평원 위로 수십 마리 염소 떼가 몰려다녔다. 구글 직원은 환경보호를 위해 제초제 대신 염소 떼를 풀어놓아 잡초를 제거한다고 알려줬다. 그때 감탄하며 봤던 목가적인 풍경을 지금도 볼 수 있는지 모르겠지만 2015년 구글은 모토를 ‘옳은 일을 하자’(Do the right thing)로 바꿨다. 기업의 긍정적 영향력을 확대하기 위해서라는데 이후 구글의 행보도 달라졌다.

단적인 예가 군산 복합이다. 기술을 군사적 목적으로 사용하지 않겠다고 천명했던 구글, 오픈AI 같은 미국 거대 기술기업들은 최근 국방 분야에 적극 뛰어들고 있다. 심지어 일부 기업의 임원들은 장교가 돼서 군부대에 참여한다. 메타, 오픈AI, 팔란티어 등의 기술총괄(CTO) 및 개발자 4명은 중령으로 임관해 6월 미 육군에 편성된 201 분견대에서 일을 한다. 이들은 다른 군인들과 달리 훈련을 받지 않고 원격으로 일하며 군을 위해 기술 활용 방안을 제시한다.


같은 달 구글, 오픈AI, 앤스로픽, xAI는 미 국방부와 전투 등에 활용할 수 있는 인공지능(AI) 개발을 위해 2억 달러 규모의 계약을 맺었다. 미 국방부는 이 계약이 적에 대한 전략적 우위를 유지하기 위해 필요하다고 밝혔다. 메타는 미군이 사용할 확장현실 안경을 만들고 있으며 미 특공대의 오사마 빈 라덴 사살 작전에서 결정적 역할을 한 보안업체 팔란티어도 미 육군과 데이터 활용 사업을 벌이고 있다.


이들은 민주주의 수호를 위한 일이라고 주장하지만, 우려의 목소리가 만만찮다. 이 기술들이 언제 어떻게 사용될지 모르기 때문이다. 9·11 테러 이후 ‘악의 축’을 거론하며 대테러 전쟁을 선언했던 미국의 부시 행정부가 강조한 것은 잠재적 위협을 제거하는 선제공격이었다. 잠재적 위협은 전선이 따로 없기 때문에 우방이나 동맹국도 보이지 않는 감시와 견제를 받을 수 있다. 여기에 AI가 쓰이지 말라는 법이 없다.


이 때문에 자주적인 소버린 AI 개발에 힘이 실리기도 한다. 실제로 모 스타트업 대표는 “AI를 특정 단어에 반응해 악성 코드를 퍼뜨리거나 스파이웨어를 자동으로 심을 수 있도록 개발하면 얼마든지 무기화할 수 있다”며 보이지 않는 AI의 위험성을 강조한 적이 있다. 따라서 외국의 AI가 가할 수 있는 잠재적 위협을 줄이려면 소버린 AI 개발이 필요하다는 주장이다.

최연진 한국일보 IT전문기자.

중요한 것은 기술을 사용하는 사람의 의지다. 2018년 구글이 미 국방부와 AI를 이용해 드론 영상을 분석하는 ‘메이븐 프로젝트’ 계약을 체결했을 때 수천 명의 직원들은 경영진에게 편지를 보내 전쟁 관련 사업에 반대했다. 결국 구글은 다른 사람을 다치게 하거나 이를 돕는 데 AI를 활용하지 않겠다는 원칙을 발표했다. 지금은 구글이 이 원칙을 파기했지만 반대의 목소리가 계속 터져 나오면 부담스러울 수밖에 없다. 기술은 선악을 구분하지 않는다. 이를 다루는 사람의 의지를 따라갈 뿐이다. 그렇기에 미국, 중국 등 전 세계가 AI와 디지털 기술을 지나치게 군사적 용도로 남용하는 것을 막으려면 끊임없는 견제의 목소리가 필요하다.

최연진 한국일보 IT전문기자의 전체기사 보기

배너

많이 읽은 기사