- 영문명
- A Study on Copyright Infringement by AI-Generated Works
- 발행기관
- 한국정보법학회
- 저자명
- 전응준(Eung Jun Jeon)
- 간행물 정보
- 『정보법학』제29권 제1호, 50~86쪽, 전체 37쪽
- 주제분류
- 법학 > 민법
- 파일형태
- 발행일자
- 2025.04.30
7,240원
구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

국문 초록
본 연구는 AI 산출물에 의한 기존 저작권 침해의 문제를 고찰하기 위해 우선 생성형 AI의 기술적 특성에 관하여 ‘생성형 AI의 확률적 모방성’과 ‘초과 모방성 현상’이라는 개념을 제시하였다. ‘생성형 AI의 확률적 모방성’은 AI 모델이 학습데이터의 분포를 파악하여 이를 확률적으로 모방하는 특성을 법적 관점에서 해석한 것이며 ‘초과모방성 현상’은 생성형 AI가 일반적인 모방성을 넘어 의도적으로 저작권 침해물을 생성하는 현상을 개념화한 것이다. 이와 같은 관점하에 본 연구는 크게 다음의 세 가지사항을 검토하였다.
첫째, AI의 확률적 모방성은 ‘학습데이터의 분포를 따르는’ 기술적 특성에서 비롯되는데, 이러한 모방성은 기술발전에 의해 다양한 형태로 나타날 수 있다. 이와 같은AI 산출물에 대한 저작권 침해 여부를 판단하기 위해서는 생성형 AI의 산출 과정에대한 과학적ㆍ기술적 검토가 요구된다. 그러나 AI 모델 내부 구조가 블랙박스와 같이작동함에 따라 침해 과정을 직접적으로 입증하기가 어렵다는 점이 특히 의거성의 입증을 어렵게 하고 있다. 이러한 의거성 입증의 어려움을 해결하기 위해 학습데이터에피침해 저작물이 존재하고 AI 산출물이 피침해 저작물과 매우 유사한 경우, 증거거리설에 기초하여 의거성에 대한 입증책임을 전환하는 방안을 고려할 수 있다고 보았다.
둘째, AI 이용자와 AI 개발자의 책임 귀속 문제는 침해행위의 구조적 특성과 밀접하게 연결된다. 이용자가 침해 유발적인 프롬프트를 입력하여 특정 저작물과 유사한 결과물을 얻은 경우, 이는 이용자의 직접 침해로 볼 가능성이 높다. 반면, 기술적으로 특정저작물의 모방을 유도하는 AI 모델(e.g. 과적합된 모델)을 의도적으로 제공한 개발자는직접 혹은 공동 침해 책임을 부담할 수 있다. 따라서 개별 사안 단위로 AI 이용자 또는AI 개발자의 침해 주체성 여부를 검토하는 법적ㆍ정책적 관점이 필요하다. 같은 맥락에서 AI 모델 자체가 침해행위로 조성된 물건으로서 금지 및 폐기 청구의 대상이 되는지도 검토할 수 있다. 기본적으로 AI 모델은 파라미터의 형태로 존재하기 때문에 학습데이터의 복제물로 볼 수 없지만, 의도적으로 특정 저작물을 모방하도록 설계된 AI 모델의 경우에는 규범적 관점에서 금지 및 폐기 청구의 대상이 될 가능성이 있다.
셋째, AI 산출물의 저작권 침해를 방지하고 책임 소재를 명확히 하기 위해서는 입증책임 전환, 필터링 및 모니터링 기술, OSP(온라인서비스제공자)에 대한 통지ㆍ삭제절차 등 추가적인 규제 장치의 도입이 검토될 수 있다. 그러나 이러한 방안이 과도하게 적용될 경우 기술 발전이 위축되고 표현의 자유에 대한 제약으로 이어질 수 있으므로 새로운 입법적 제안은 기존 법리와 제도를 존중하는 전제에서 신중히 고려되어야 한다고 생각된다.
영문 초록
This study introduces the concepts of “probabilistic mimicry of generative AI” and “excessive mimicry” to examine copyright infringement in AI-generated outputs. “Probabilistic mimicry” refers to the legal interpretation of how AI models probabilistically imitate their training data distribution, while “excessive mimicry” describes situations where generative AI intentionally produces infringing works beyond normal imitation.
From this perspective, the study examines three key issues:
First, AI's probabilistic mimicry stems from its technical feature of following training data distribution, which may manifest differently as technology evolves. Determining copyright infringement in AI outputs requires scientific analysis of the generation process.
However, AI models function as black boxes, making it difficult to prove infringement directly or establish substantial similarity. To address this, the study suggests that when an infringed work exists in the training data and the AI output closely resembles it, the burden of proving substantial similarity might shift based on “probative proximity.”
Second, attributing responsibility between AI users and developers relates directly to infringement characteristics. Users who input prompts resulting in outputs similar to copyrighted works likely bear direct liability. Conversely, developers who intentionally create models that induce mimicry of specific works (e.g., overfitted models) may face direct or joint liability. This requires case-by-case legal and policy analysis. Additionally, it's worth considering whether AI models themselves—though not direct reproductions of training data—could face injunctions or destruction if designed to imitate specific copyrighted works.
Third, preventing AI copyright infringement may require additional measures like burden of proof adjustments, filtering technologies, and notice-and-takedown procedures for online service providers. However, excessive regulation could impede technological progress and limit expression. Therefore, new legislative proposals should carefully balance these concerns while respecting existing legal frameworks.
목차
Ⅰ. 서론
Ⅱ. 생성형 AI의 특성에서 바라본 저작권 침해 문제
Ⅲ. AI 산출물에 의한 저작권 침해 관련 세부 판단 기준
Ⅳ. 저작권 침해 책임의 귀속 주체
Ⅴ. 법률 개정의 필요성 여부
Ⅵ. 결론
키워드
해당간행물 수록 논문
참고문헌
교보eBook 첫 방문을 환영 합니다!
신규가입 혜택 지급이 완료 되었습니다.
바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!
