"AI 허위정보 규제, 처벌보다 플랫폼 책임 강화로"

'미디어 기술 진화와 혼돈의 시대' 한국언론법학회 학술대회

  • 페이스북
  • 트위치

인공지능(AI) 발전으로 진짜와 가짜의 경계가 흐려진 시대에 허위정보를 어떻게 통제해야 할까? 규제는 필요해 보이지만 검열과 통제의 시대를 열 수 있다는 우려도 크다. 국내에서도 AI 기술의 하나인 딥페이크를 이용한 선거운동을 금지하는 법이 만들어졌지만 표현의 자유를 위축시키고 기술 자체를 적대시하는 과잉입법이라는 비판도 받는다.

한국언론법학회가 ‘미디어 기술 진화와 혼돈의 시대’를 주제로 4월26일 개최한 학술대회에서 발제에 나선 최진응 국회입법조사처 입법조사관은 “유포자를 처벌하기보다 허위정보를 유통하는 인터넷 플랫폼 사업자의 책임을 강화하는 방법을 검토해야 한다”고 제안했다. 처벌이 효율적일 수는 있어도 민주주의를 퇴행시키는 해악이 더 크다는 것이다.

'사회교란' 허위정보 규제는 필요

4월26일 서울시 중구 프레스센터 19층 기자회견장에서 열린 '2024년 한국언론법학회 봄철 정기학술대회'에서 최진응(오른쪽) 국회 입법조사처 입법조사관이 발표하고 있다. 왼쪽은 사회자인 이재진 한양대 미디어커뮤니케이션학과 교수. 박성동 기자

최 조사관은 ‘사회를 교란하는’ 허위정보 규제는 필요하다고 강조했다. 단지 개인의 명예가 침해되는 전형적인 피해 양상과 달리 AI를 활용한 허위정보는 진위를 구분하기 어렵고 순식간에 퍼지는 탓에 주식시장이나 선거, 안보 등 사회적 이익에까지 타격을 입히기 때문이다. 단순히 표현의 자유만 결부된 문제는 아니라는 것이다.

그는 “인터넷의 발달로 과거 정보의 불평등은 해소했지만 이제 정보의 가치가 하락하는 새로운 문제가 생겼다”며 더욱이 “AI를 활용하면 전문적 지식이나 기술이 없어도 수많은 일반인이 그럴싸한 허위정보를 만들어 낼 수 있어 위험이 커졌다”고 지적했다.

이익 얻는 플랫폼 기업에 책임도

대안으로 허위정보를 유포한 사람이 아니라 정보가 확산하는 경로를 통제하는 방법이 제안됐다. 최진응 조사관은 “정보를 유통하면서 이용자를 끌어모아 상업적 이익을 얻는 플랫폼 기업의 책임을 강화할 수 있다”고 말했다.

미국과 유럽, 호주 등 해외사례를 참고한 구체적인 방안도 제시됐다. 사용자의 신고 접수를 포함해 플랫폼이 허위정보를 찾아내는 방법과 유해성 정도를 판단해 삭제하거나 접근을 제한하는 기준과 절차를 스스로 만들게 하는 것이다. 다만 플랫폼마다 이행 결과를 투명하게 공개해 감시받게 하고, 정책을 수립하지 않거나 관리를 게을리하면 법적 책임을 지울 수 있다.

허위정보 '정의' 집착할 필요없어

토론자로 참여한 김훈주 공주대 법학과 교수는 “허위정보 개념에 사회적 합의가 이뤄지기 쉽지 않다”며 “법체계 안에서 제재를 논의하기 위해서는 허위정보의 정의가 무엇인지 정리해야 할 것 같다”고 말했다.

이에 대해 최 조사관은 “형사처벌을 염두에 두다 보니 죄의 성립요건을 고려해 허위정보의 정의 문제가 생기고 이 때문에 논의가 어려워진다”며 “사업자들에게 재량을 주고 허위성이나 기만성, 목적성과 영향성 등을 고려해 각자 책임 지고 강령을 만들게 해야 한다”고 답했다.

학술대회는 대외에 공개돼 일반 시민 등 50여 명이 참석했다. /박성동 기자

그는 “하지만 우리에게 없다는 이유로 규제를 기계적으로 추가하는 식은 안 된다”며 방송통신심의위원회가 국내외 인터넷 정보를 삭제하거나 차단하는 등 행정이 개입할 수 있는 권한은 과감하게 덜어내 플랫폼에 양도해야 한다고 설명하기도 했다.

허위 내용보다 형식을 먼저 규제해야 한다는 의견도 나왔다. 이혜온 법무법인 지평 변호사는 “2010년 ‘미네르바 사건’에서 헌법재판소가 위헌을 결정한 전기통신법의 본래 입법 취지는 ‘허위사실 유포’가 아니라 ‘허위명의 이용’ 규제였다”며 “기자가 서로 다른 매체에 필명으로 기사를 올린 사건이 있었는데 AI 기사 작성이 쉬워질수록 이런 허위명의 문제도 생길 수 있어 규제 논의가 필요하다”고 짚었다.

박성동 기자의 전체기사 보기

배너

많이 읽은 기사