본문 바로가기

AI 저작권

AI로 만든 콘텐츠, 제3자의 인격권(초상권/성우권) 침해 문제

내 얼굴, 내 목소리… 그런데 내가 만든 게 아니라 AI가 만들었다면?”

요즘 유튜브 쇼츠나 인스타 릴스를 보다 보면 낯익은 목소리나 얼굴이 튀어나올 때가 있다. 그런데 자세히 보면 어딘가 어색하다. 가령 배우 이병헌의 목소리 같은데, 알고 보니 AI로 합성한 가짜 음성이었다. 이런 콘텐츠는 ‘재밌다’는 반응도 있지만 동시에 섬뜩하다는 의견도 많다.

이제 문제는 여기에 있다. AI가 생성한 콘텐츠가 누군가의 ‘목소리’나 ‘얼굴’을 닮았을 때, 과연 이것은 불법일까? AI는 아무 의도도 없지만, 콘텐츠를 만든 사람은 분명히 있다. 그렇다면, 누가 책임을 져야 하고, 어디까지가 ‘침해’일까?


인격권이란 무엇인가?

인격권은 쉽게 말해, 사람의 고유한 정체성과 연결된 권리다. 초상권(얼굴), 성우권(목소리), 성명권(이름) 등이 여기에 포함된다. 이 권리는 재산처럼 사고팔 수 있는 게 아니며, 누구나 본인의 인격을 보호받을 권리를 가진다.

단순히 '불쾌하다'는 이유로만 문제 삼을 수는 없지만, 타인의 얼굴이나 목소리를 무단으로 활용해 상업적 이익을 얻거나 이미지 훼손이 발생하면 법적 분쟁으로 번질 수 있다.


AI 기술의 진화, 그리고 경계의 붕괴

예전에는 특정인의 목소리나 얼굴을 복제하려면 고급 장비와 전문 인력이 필요했다. 하지만 지금은 다르다.

  • 딥페이크(Deepfake) 기술은 영상에서 얼굴을 바꾸는 데 능숙하다.
  • TTS(Text to Speech) 음성합성기는 목소리를 학습해 ‘이름만 입력해도’ 그 사람처럼 말하게 만든다.
  • ChatGPT, D-ID, ElevenLabs 같은 툴들은 이 과정을 초고속으로 수행한다.

이제는 누구나 AI 기술로 유명인의 목소리나 얼굴을 구현할 수 있는 시대다. 문제는 ‘허락 없이’ 그렇게 할 수 있다는 점이다.


AI 초상권·성우권 침해 실제 사례

사례 1) 유명 정치인의 목소리로 만든 뉴스 방송

한 유튜버는 유명 정치인의 목소리를 AI로 합성하여 허위 뉴스 콘텐츠를 제작했다. 이 영상은 가짜였지만 매우 자연스러웠고, 실제 뉴스로 오해받을 만큼 완성도가 높았다. 정치인의 측은 "명백한 명예훼손이자 초상권·성우권 침해"로 고소했다.

사례 2) 유명 배우의 얼굴로 만든 광고 영상

AI로 구현된 배우 A의 얼굴을 사용해 다이어트 제품 광고를 만든 영상이 SNS에 유포되었다. 문제는 광고 수익을 창출하고 있음에도 배우의 동의가 없었다는 점이다.

이처럼, AI가 생성한 콘텐츠가 "정말 그 사람이 한 것처럼 보이게 만드는 수준"에 이르렀을 때, 법적 논쟁은 더욱 치열해질 수밖에 없다.


국내외 법적 기준은 어떻게 다른가?

🇰🇷 한국

  • 아직 명확한 'AI 인격권 침해'에 대한 법률은 존재하지 않지만, 기존의 초상권 보호 조항으로 해석 가능하다.
  • 방송통신심의위원회는 AI 합성 콘텐츠에 대해 “사실 왜곡 가능성 및 인격 침해 우려”가 있다며 주의를 당부하고 있다.

🇺🇸 미국

  • 일부 주에서는 성우권(Right of Publicity)을 법적으로 보호하고 있다.
  • 테네시주는 ‘Elvis Act’라는 법안을 통해 사망한 유명인의 AI 목소리도 법적으로 보호하는 조치를 마련 중이다.

AI 콘텐츠 제작자, 어디까지가 합법인가?

많은 사람들이 묻는다.

“저는 그냥 재미로 만들었는데요… 돈을 번 것도 아니고…”

하지만 문제는 수익 여부가 아니다.

누군가의 정체성을 AI로 흉내 낼 때, 그 자체로 '동의 없는 활용'이라는 사실이 문제다.

법적 리스크 체크리스트

  • AI 콘텐츠에 실제 인물의 목소리나 얼굴이 사용되었는가?
  • 해당 인물의 동의를 받았는가?
  • 상업적 목적이 포함되었는가?
  • 해당 콘텐츠가 오해를 불러일으킬 수 있는가?

이 중 2가지 이상에 해당된다면, 법적 위험성을 피할 수 없다.


내 얼굴, 내 목소리를 보호하는 방법

이제는 ‘내 얼굴이 인터넷에 떠도는 것’만으로도 AI에 학습될 수 있는 시대다. 그렇다면 우리는 어떻게 대응해야 할까?

자신을 지키는 3가지 방법:

  1. AI 학습 거부 요청 등록
    • 일부 플랫폼(예: Google)은 사용자 요청 시 AI 학습을 거부할 수 있는 옵션을 제공한다.
  2. 디지털 워터마크 사용
    • 자신의 얼굴이나 음성에 추적 가능한 워터마크를 삽입해 무단 사용을 감지할 수 있다.
  3. 정기적 모니터링 및 알림 서비스 사용
    • Pimeyes, Sensity 등 AI 얼굴 추적 서비스를 활용하면 자신의 이미지가 도용되는 경우를 빠르게 파악할 수 있다.

AI 시대의 창작은 ‘책임’과 함께 가야 한다

기술은 중립적이다. 하지만 그 기술을 활용하는 사람은 ‘의도’를 가진다.
AI 콘텐츠 제작자 역시 법과 윤리의 테두리 안에서 활동해야 하며,
특히 타인의 얼굴과 목소리를 이용하는 경우 철저한 동의와 책임의식을 가져야 한다.

지금은 법이 느리게 따라오는 시대다.

 

하지만 분명한 건, AI가 만든 콘텐츠로 누군가의 인격이 훼손된다면, 법은 반드시 개입한다는 것이다.