생성형 인공지능(AI)을 활용한 콘텐츠가 쏟아져 나오는 가운데, 워터마크 도입 등' AI 생성물 알리기' 움직임이 본격화되고 있다. AI 생성물로 인한 딥페이크 피해, 가짜뉴스 확산과 같은 부작용을 최소화하기 위해서다. 개별 기업 뿐 아니라 각국 정부에서도 AI 생성물에 대한 문제점을 지적하고 있어 관련 논의는 급물살을 탈 것으로 전망된다.
8일 업계에 따르면 메타는 6일(현지시간) 공식 블로그를 통해 자사의 소셜미디어(SNS)에 올라오는 이미지가 AI로 생성된 것인지 아닌지 구분할 수 있게 표시할 계획이라고 전했다. 메타는 현재 자체 AI 도구인 '메타 AI'로 만들어진 콘텐츠에 라벨을 붙이고 있는데, 앞으로 구글과 오픈AI 등 외부 AI 툴로 만들어진 이미지에도 라벨을 넣는 기술을 개발 중이다. 닉 크레그 메타 글로벌 담당 사장은 이날 블로그를 통해 “사람이 만든 콘텐츠와 합성(AI 제작) 콘텐츠의 차이가 모호해지면서 사람들은 경계를 알고 싶어 한다”며 “해당 기능은 현재 구축 중이고, 전 세계에서 중요한 선거가 진행되는 내년까지 이런 정책을 유지할 것"이라고 설명했다.
<중략>