본문 바로가기

AI 저작권

AI가 만든 뉴스 콘텐츠, 보도자료로 활용 가능할까?

기자가 아닌 AI가 보도자료를 쓰는 시대

 

생성형 AI 시대에 보도문과 정보 콘텐츠의 저작권과 책임에 대해 알아보겠습니다.

이제는 언론사나 기업에서 AI가 작성한 보도자료를 마주하는 일은 더 이상 놀랍지 않은 시대이다. 대규모 언론사들은 이미 AI 자동 기사 생성 시스템을 내부에 도입했고, 스타트업, 공공기관, 병원, 대학교 등도 ChatGPT와 같은 생성형 AI를 이용해 보도자료나 뉴스성 콘텐츠를 작성하고 있다.

 

AI는 빠르다. 정보를 빠르게 정리하고, 보도 형식의 글로 완성도 있게 출력해낸다. 문장 구조도 일정하고, 오류도 드물다. 이로 인해 콘텐츠 제작자는 글쓰는 데 들이던 시간을 아껴 기획과 편집에 집중할 수 있게 되었다.

그러나 여기서 중요한 문제가 발생한다. AI가 만든 콘텐츠를 그대로 보도자료로 배포하거나 뉴스 기사로 공개해도 법적, 윤리적으로 괜찮은 것일까? 그리고 그 글을 재배포하거나 인용하는 사람은 어떤 책임을 지게 될까?

 

AI가 작성한 뉴스 콘텐츠나 보도문이 법적으로 어떤 위치에 있으며, 실제 활용을 위해 어떤 기준을 따라야 하는지를 살펴보겠습니다.

 

AI가 만든 뉴스 저작권 여부

 

보도자료는 저작권이 발생하는 콘텐츠인가?

먼저 보도자료의 법적 성격을 살펴보자. 대한민국 저작권법에서는 창작성이 있는 표현은 저작물로 간주되며, 저작권 보호 대상이 된다. 그러나 단순 사실의 전달이나 공공 정보는 저작물로 보기 어렵다.

 

보도자료는 보통 다음 두 가지 범주로 나뉜다.

  1. 단순 정보 전달용 자료
  2. 창작적 표현과 해석이 포함된 자료

예를 들어, 정부 기관이 배포하는 단순 통계나 수치를 담은 문서는 아이디어 수준의 공공 정보이므로 저작권 보호 대상이 아니다.
하지만 어떤 사건에 대한 시각이나 정리, 문학적 문장 구성, 비유나 설명이 담긴 글은 창작물로 인정될 수 있다.

 

결론적으로, AI가 만든 보도자료가 창작성이 있는 표현을 포함한다면 저작권과 관련된 문제가 생길 수 있다.

그렇다면 그 권리는 누구에게 귀속될까?

 

AI가 쓴 글, 저작권은 누구에게 있는가?

현행 저작권법의 원칙은 명확하다. 저작권은 인간의 창작물에만 부여된다. AI는 법적 인격체가 아니기 때문에 스스로 저작권자가 될 수 없다. ChatGPT나 Claude, Gemini 등 AI가 단독으로 작성한 글은 기본적으로는 저작물로 인정되지 않거나, 저작자가 불분명한 상태가 된다.

 

하지만 사람이 프롬프트를 입력하고, 결과물을 수정·편집하고, 구조화와 표현을 선택했다면 그 기여자에게 저작권이 인정될 수 있다.

 

AI 저작권의 핵심 내용은 AI가 작성한 보도자료나 기사 문서에서 사람이 얼마나 창작적 판단에 개입했는지가 법적으로 가장 중요한 판단 기준이 된다.

 

실무에서는 어떻게 쓰이고 있을까?

현재 국내외 주요 언론사와 PR 대행사, 공공기관에서는 AI를 보도자료 작성의 ‘도우미’로 활용하고 있다.

 

예를 들어, ChatGPT에 다음과 같은 명령을 주는 경우가 많다.

  • 보도자료 구조 생성: 제목, 부제목, 본문 구조 제공
  • 요약 정리: 발표 내용을 뉴스 형식으로 재구성
  • 맞춤법 교정 및 간결화
  • 유사 문장 중복 제거

이렇게 AI가 1차 문서를 작성한 뒤, 사람이 그 문서를 다시 다듬고 인용을 정리하며 공식 보도자료로 완성하는 방식이다.

이 경우, 실제 책임은 사람에게 있으며, 출처를 명시하거나 결과물의 일부를 인용하는 것은 일반적인 보도자료 활용 방식과 다르지 않다.

 

문제는 AI 결과물을 그대로 복붙해 사람의 개입 없이 배포하거나, AI가 만든 정보가 잘못되었음에도 검증 없이 발행했을 경우다. 이때 발생하는 책임은 전적으로 콘텐츠 활용자에게 돌아간다.

 

AI 보도자료를 그대로 활용하면 어떤 문제가 생길까?

다음은 AI 보도자료 활용 시 실제로 문제가 된 사례 유형이다.

  1. 내용 오류
    AI가 작성한 숫자나 인용 문장이 실제 사실과 다를 수 있다.
    예를 들어 기업의 실적 수치를 잘못 요약하거나, 존재하지 않는 기관명을 기입한 사례가 보고되었다.
  2. 출처 불명
    AI가 기존 웹상의 자료를 참고했을 경우, 그 인용 원문이 어디에서 왔는지 알 수 없다. 이로 인해 타사의 보도자료나 블로그 글을 무단 전재한 결과가 될 수도 있다.

  3. 반복 사용된 문장
    AI는 유사한 문장을 반복하는 경향이 있다. 이에 따라 여러 기업이 유사한 스타일의 보도자료를 배포하게 되고, 신뢰도에 영향을 주기도 한다.

  4. 표절 및 유사도 문제
    AI가 인터넷상의 콘텐츠를 학습했기 때문에, 그 구조나 문장이 기존 기사와 유사할 수 있으며, 이 경우 표절 또는 저작권 침해로 분쟁이 발생할 수 있다.

법적으로 안전하게 활용하려면 어떤 조건을 갖춰야 할까?

AI가 작성한 보도자료나 뉴스 콘텐츠를 실무에서 활용하려면 다음과 같은 원칙을 따라야 한다.

  1. 사람이 문장을 편집하고, 구조를 재정리한다.
    AI가 생성한 문장을 그대로 쓰는 것은 위험하다. 반드시 의미를 이해한 후, 문장 구조를 바꾸거나 내용을 요약·해석하는 작업이 필요하다.

  2. 출처와 참고 자료를 검증한다.
    AI가 제공한 수치나 인용 내용은 직접 관련 기관이나 원문 자료를 통해 검증해야 한다.

  3. 최종 작성자 정보를 명확히 한다.
    보도자료나 뉴스 콘텐츠에는 작성자 또는 담당 부서 정보를 기재해야 한다. AI가 작성에 관여했음을 부연설명으로 명시하는 것도 투명한 방법이다.

  4. 중복 검사 및 유사도 분석을 진행한다.
    AI 생성 콘텐츠는 동일한 프롬프트를 입력할 경우 유사한 문장이 나올 수 있기 때문에, 문서 유사도 검사를 통해 콘텐츠 독창성을 확인하는 것이 좋다.

보도자료가 아닌 기사 형식으로 쓸 때는 더 주의해야 한다.

보도자료는 기본적으로 배포를 전제로 한 문서이며, 홍보·정보 제공의 목적이 명확하다. 하지만 뉴스 기사 형식으로 AI가 작성한 글을 언론 플랫폼에 업로드하거나 기사로 활용할 경우 언론 윤리와 보도 책임 기준이 적용된다. 특히 포털 송고 기사나 검색 노출을 전제로 한 뉴스 콘텐츠는 작성 주체가 누구인지, 내용이 사실인지, 문장이 창작자인지를 명확히 해야 한다. AI가 쓴 뉴스 콘텐츠는 신속하고 편리하지만, 사실 오보의 책임이나 표절 문제는 오직 사람만이 질 수 있다.

 

결론 : 빠른 글보다 중요한 건 신뢰받을 글

AI는 훌륭한 글쓰기 도구다.
요청하면 몇 초 만에 구조 있는 보도자료를 만들어준다. 하지만 그 결과물이 진짜 의미 있고, 공적으로 배포될 수 있는 정보인지는 사람의 판단과 책임이 결정한다. 기업이나 기관, 언론사, 개인 창작자 모두 AI가 만든 보도 콘텐츠를 활용할 수 있다. 그러나 그 활용 과정에서 문장 하나하나의 진실성과 책임 주체를 명확히 하지 않으면 그 콘텐츠는 오히려 신뢰를 해치는 도구가 될 수 있다.

 

보도자료는 단지 글이 아니라, 기관과 브랜드의 공식 메시지다. 그 메시지가 AI의 손을 거쳤든, 사람의 손을 거쳤든, 그 책임은 사람이 진다.