언론단체는 의견서에서 이번 제정안이 AI 사업자가 지켜야 할 투명성, 안전성, 의무사항과 딥페이크 범죄 예방을 위한 AI 생성물 워터마크 의무화 등을 규정한 것은 적절한 조치라고 평가했다.
그러나 언론단체는 “생성형 AI 사업자가 AI 제품 및 서비스 개발을 위해 사용한 학습용 자료에 관한 기록을 수집·보관하고 공개하도록 하는 규정이 빠져있다”고 지적했다.
특히 “학습데이터 공개를 의무화하지 않는 것은 생성형 AI 사업자의 데이터 무단 이용을 허용해 저작권자의 권리를 심각하게 침해하게 된다”고 우려했다.
또한 “저작권자는 자신의 저작물이 어디에, 어떻게 사용됐는지 알 권리를 잃게 될 뿐만 아니라, 정당한 대가 요구도 어려워진다”고 설명했다.
언론단체는 이에 따라 “생성형 AI 사업자가 최대한 학습 데이터를 투명하게 밝히고 저작권자가 열람할 수 있도록 해야 한다”며 “생성형 AI 사업자 입장에서도 본인들의 기술에 대한 신뢰도를 높이려면 학습 데이터와 학습 방식 등을 투명하게 공개하는 것이 바람직하다”고 강조했다.
이어 AI기본법안 제31조(인공지능 투명성 확보 의무)에 다음 조항을 신설할 것을 제안했다.
△ 인공지능사업자는 생성형 인공지능 제품 및 서비스 개발을 위해 사용한 학습용 자료에 관한 기록을 수집·보관해야 하며, 이를 공개하여야 한다. 공개에 관하여 필요한 사항은 대통령령으로 정한다.
△ 인공지능사업자는 생성형 인공지능 제품 및 서비스 개발을 위해 사용한 학습용 자료에 대해 저작권자가 열람을 요청할 경우 관련 자료를 제공하여야 한다.
끝으로 언론단체는 생성형 AI 학습데이터 공개 의무화의 근거로 미국과 EU의 사례를 들었다. 미국은 2024년 4월 하원에서 발의된 ‘학습데이터 공개에 관한 법안’을 통해 학습데이터 요약본을 저작권청에 제출하도록 하고 있다. EU도 지난 3월 제정한 ‘AI법’에서 AI 기업들이 학습 및 훈련 과정에서 사용한 데이터에 대한 상세 내용을 공개하도록 규정하고 있다.
이창선 한국금융신문 기자 lcs2004@fntimes.com