사진출처: 챗gpt 활용 ai제작
최근 인공지능(AI)은 과제물 작성, 디자인, 음악, 글쓰기 등 다양한 창작 활동 영역에서 널리 활용되고 있습니다. 특히 대학생들의 리포트 작성이나 기업의 마케팅 콘텐츠 제작, 예술 창작 분야까지 그 영향력이 확장되면서, AI는 더 이상 단순한 기술이 아닌 창작 주체로 기능하고 있습니다. 이러한 변화는 기존 저작권 체계가 전제로 했던 ‘인간 중심 창작’ 개념에 의문을 제기하며, 법적·윤리적 논쟁을 야기하고 있습니다.
기존에는 창작이라는 행위가 인간만의 고유한 영역으로 간주되었으나, 이제는 AI가 수백만 개의 데이터를 학습하여 새로운 콘텐츠를 자동 생성함으로써 인간의 창작을 보조하거나 심지어 대체하기까지 합니다. 이는 단지 기술적 진보에 그치지 않고, 저작물의 정의, 창작자의 범위, 저작권의 귀속과 같은 근본적인 법적 개념에 도전하고 있습니다. 나아가 AI가 생성한 콘텐츠의 법적 보호 여부와 책임 소재를 명확히 하지 않으면 창작자와 플랫폼, 이용자 간의 권리 충돌과 법적 분쟁이 계속 발생할 수 있습니다. 이러한 배경 속에서 AI 창작물과 저작권의 관계를 재정립하는 논의가 절실히 필요합니다.
● AI란?
AI(Artificial Intelligence, 인공지능)는 인간의 인지 능력을 모방하거나 이를 능가할 수 있도록 설계된 알고리즘 기반 기술입니다. 이 중에서도 최근 주목받고 있는 생성형 AI(Generative AI)는 방대한 양의 데이터를 학습한 후, 인간의 개입 없이도 새로운 이미지, 텍스트, 음악, 영상 등을 자동으로 만들어낼 수 있는 기술을 의미합니다. 대표적인 예로는 텍스트 생성 기능을 제공하는 OpenAI의 ChatGPT, 이미지 생성 도구인 Midjourney, 그리고 음악 제작 플랫폼 Suno 등이 있습니다. 이러한 생성형 AI는 기존의 단순 자동화 기술을 넘어서 창작의 영역까지 진입함으로써, 기존의 창작 개념과 저작권 체계에 새로운 도전과 과제를 던지고 있습니다.
● AI 창작물의 저작권 인정 여부
AI 창작물이 저작권 보호를 받을 수 있는지 여부는 오늘날 AI 시대의 저작권법에서 가장 핵심적인 쟁점 중 하나입니다. 이는 단순히 새로운 기술의 등장에 따른 법적 해석의 문제가 아니라, 창작의 본질에 대한 재정의를 요구하는 문제이기도 합니다. 현재의 저작권법은 ‘인간의 창작행위’를 보호 대상으로 하고 있기 때문에, AI가 스스로 생성한 이미지, 텍스트, 음악 등 결과물이 아무리 창의적이고 독창적이라 하더라도, 인간이 창작 과정에 개입하지 않았다면 현행 법체계 하에서는 이를 ‘저작물’로 인정하기 어렵습니다. 그러나 실제 창작 과정에서는 대부분 인간이 AI에게 특정한 지시를 내리거나, 생성된 결과물 중 일부를 선택하고 편집·수정하는 경우가 많습니다. 따라서 이처럼 인간의 창작적 개입이 있었는지를 기준으로 저작권 보호 여부를 판단해야 한다는 의견이 다수 제기되고 있습니다.
예를 들어, 사용자가 단순히 “고양이 사진을 그려줘”라는 명령을 AI에게 내린 경우, 창작에 기여한 부분이 거의 없으므로 인간의 창작물로 보기 어렵습니다. 그러나 반대로 사용자가 수십 개의 프롬프트를 실험하고, 그중에서 창의성이 드러나는 결과물을 선별해 세부적으로 편집하거나 다른 이미지와 조합하여 최종 작품을 완성했다면, 이러한 행위는 창작성 있는 창작으로 평가될 수 있습니다. 특히 최근에는 사용자가 AI 도구를 마치 디자인 소프트웨어처럼 활용해 이미지의 구조, 색상, 구도, 스타일을 정교하게 설계하는 방식으로 작품을 만드는 사례도 늘고 있습니다. 이러한 과정에서 인간의 창작적 개입이 얼마나 이루어졌는지를 평가할 수 있는 기준이 필요하며, 이는 저작권 인정 여부를 가르는 중요한 판단 요소가 됩니다.
또한 AI가 생성한 창작물의 저작권 귀속 주체에 대한 문제도 중요한 논점입니다. AI 자체는 법적 인격체가 아니므로, 창작물의 권리를 AI에게 귀속시킬 수는 없습니다. 따라서 그 권리를 누구에게 부여할 것인지에 대한 논의가 이어지고 있으며, 크게 세 가지 입장이 존재합니다. 첫째는 AI를 활용한 이용자에게 저작권을 인정해야 한다는 입장입니다. 이는 인간이 AI를 도구로 활용해 창작에 실질적으로 기여했음을 강조하는 시각입니다. 둘째는 AI 개발자나 플랫폼 운영자에게 귀속해야 한다는 주장입니다. 생성된 결과물이 AI의 설계 구조와 알고리즘에 따라 달라지기 때문에, 기술적 기반을 제공한 자에게 일정한 권리를 부여할 수 있다는 논리입니다. 셋째는 AI가 완전 자율적으로 생성한 결과물은 무저작물로 간주하고 공공의 자산으로 활용될 수 있도록 해야 한다는 입장입니다. 이는 창작물 이용의 자유와 기술의 개방성을 중시하는 주장입니다.
이와 관련해 미국 저작권청(US Copyright Office)은 2023년 기준, 인간의 개입 없이 AI가 생성한 작품에 대해 저작권을 부여하지 않는다는 입장을 공식적으로 발표한 바 있습니다. 그러나 동시에 인간이 생성 과정에 실질적으로 개입했음을 입증할 수 있다면, 예외적으로 해당 창작물에 대한 저작권이 인정될 수 있다는 입장도 병행하고 있습니다. 이는 인간의 창작 기여도에 따라 AI 결과물에 대한 권리 귀속을 유연하게 판단하겠다는 의미로 해석될 수 있습니다. 국내에서는 아직 이와 관련한 명확한 법적 기준이나 판례가 없는 상황이며, 이에 따라 법 해석의 통일성과 입법적 정비가 시급하다는 지적이 계속되고 있습니다. 앞으로 AI 기술 발전 속도에 발맞추어 인간의 창작 개입 범위를 어떻게 정의할지, 그 경계를 법적으로 어디까지 인정할 것인지에 대한 사회적 합의와 제도적 보완이 반드시 필요합니다.
● 생성형 AI 플랫폼의 법적 책임
생성형 AI 플랫폼이 제공하는 서비스는 매우 강력한 창작 도구로 활용되고 있습니다. 사용자는 간단한 명령어 몇 줄만으로 문학 작품, 이미지, 음악, 영상 등을 손쉽게 생성할 수 있으며, 이러한 기능은 콘텐츠 제작의 효율성을 크게 높이고 있습니다. 그러나 동시에 생성형 AI 플랫폼은 저작권 침해, 명예훼손, 허위정보 생성 등의 잠재적인 법적 위험성을 함께 내포하고 있으며, 이에 따라 플랫폼의 책임 범위와 한계를 둘러싼 논의가 활발히 이루어지고 있습니다.
기본적으로 플랫폼 사업자는 자신이 직접 창작에 관여하지 않으며, 단지 기술적 도구를 제공하는 중립적인 입장에 있다고 주장합니다. 즉, 이용자가 입력한 프롬프트와 그 결과물에 대해서는 플랫폼이 직접적인 통제를 할 수 없기 때문에 법적 책임에서 자유로워야 한다는 입장입니다. 이는 과거 인터넷 포털이나 동영상 공유 사이트처럼 플랫폼의 기술적 중립성을 인정받는 논리와 유사합니다.
그러나 반대 입장에서는 플랫폼이 생성형 AI의 작동 방식을 설계하고, 학습 데이터를 선택하며, 결과물의 특성과 품질에 결정적인 영향을 미친다는 점에서 일정한 책임을 져야 한다고 주장합니다. 특히 저작권 침해나 명예훼손과 같은 문제가 반복적으로 발생할 경우, 플랫폼이 이를 방지하기 위한 기술적 조치나 정책적 장치를 마련하지 않았다면 ‘방조’ 혹은 ‘과실’에 따른 법적 책임이 성립될 수 있습니다.
이와 관련된 대표적인 사례로는 2023년 게티이미지(Getty Images)가 생성형 AI 기업 스태빌리티 AI(Stability AI)를 상대로 제기한 소송이 있습니다. 게티이미지는 자사의 저작권 이미지 수천만 장이 Stability AI의 학습 데이터로 무단 사용되었다며, 이는 명백한 저작권 침해라고 주장하였습니다. 특히 AI가 생성한 이미지에 게티이미지의 워터마크가 그대로 나타나는 경우도 포착되면서, AI가 원본 저작물을 단순히 학습하는 수준을 넘어 ‘재현’한 것이 아니냐는 비판이 제기되었습니다. 이 사건은 AI 플랫폼이 사용자에게 제공하는 생성물이 제3자의 권리를 침해할 경우, 플랫폼에도 일정한 법적 책임이 귀속될 수 있음을 보여준 중요한 판례로 평가받고 있습니다.
또 다른 사례로는 미국에서 코미디 작가 사라 실버먼(Sarah Silverman)을 포함한 작가들이 메타(Meta)와 오픈AI를 상대로 제기한 소송이 있습니다. 이들은 자신의 책과 텍스트가 사전 동의 없이 AI 학습에 사용되었다고 주장하며, AI 플랫폼이 타인의 저작물을 학습한 결과를 이용자에게 제공함으로써 간접적인 침해 책임을 져야 한다고 밝혔습니다. 이는 단순한 ‘도구 제공자’로서의 책임을 넘어서, AI 플랫폼이 결과물의 법적 문제에 대해 일정 수준의 감시 및 통제 의무를 지닌다는 주장으로 해석됩니다.
이처럼 생성형 AI 플랫폼의 법적 책임을 둘러싼 논의는 단순히 기술적 기능의 제공을 넘어, AI의 작동 방식과 결과물에 대한 사회적 책임, 나아가 윤리적 기준 수립과도 연결됩니다. 앞으로 플랫폼 사업자는 저작권 침해나 권리 침해 가능성을 사전에 방지할 수 있는 기술적 조치를 강화해야 하며, 이용자가 생성한 콘텐츠에 대한 가이드라인 제공, 신고 시스템 운영, 침해 시 신속한 삭제 조치 등을 통해 법적 리스크를 최소화할 필요가 있습니다. 동시에 입법기관은 플랫폼의 책임 범위를 명확히 규정함으로써 기술 발전과 권리 보호의 균형을 도모해야 합니다.
● 향후 과제와 정책적 제언
AI의 발전과 함께 창작 환경은 과거와 전혀 다른 양상으로 변화하고 있습니다. 생성형 AI는 인간의 창작 활동을 보완하거나 대체할 수 있는 수준에 이르렀으며, 이는 저작권 제도의 근간을 흔들고 있습니다. 이러한 현실을 반영하여 향후 저작권법은 기술의 발전을 수용하면서도 창작자의 권리를 보호할 수 있는 균형 있는 방향으로 나아가야 합니다.
첫째, AI 창작물에 대한 창작성 기준을 법적으로 명확히 정립해야 합니다. 현재는 인간의 개입 정도에 따라 저작권 인정 여부를 판단하고 있지만, 구체적인 기준이 없어 실무에서 혼란이 큽니다. 프롬프트 제공, 결과물 선택, 편집 및 조합 등의 창작 행위 중 어떤 수준 이상이 되어야 법적으로 보호받을 수 있는지를 명확히 규정할 필요가 있습니다.
둘째, AI 학습 데이터의 수집과 이용에 대한 투명성과 공정성을 확보해야 합니다. AI가 무단으로 타인의 저작물을 학습해 생성한 콘텐츠가 원 저작물과 유사하거나 이를 침해할 경우, 이는 심각한 저작권 침해가 될 수 있습니다. 따라서 AI 개발자는 학습 데이터의 출처를 명확히 밝히고, 저작자의 동의를 받거나 정당한 절차에 따라 이용해야 합니다. 더 나아가 원 저작자에게 일정한 보상이나 수익 배분이 가능한 시스템 도입도 고려해야 합니다.
셋째, AI 플랫폼에 대한 책임 기준도 제도화할 필요가 있습니다. 생성형 AI 플랫폼이 생성한 결과물이 법적 문제를 일으킬 경우, 단순한 도구 제공자라는 입장에서 벗어나 일정 수준의 주의 의무를 지도록 해야 합니다. 이를 위해 신고 시스템 강화, 사전 필터링 기술 도입, 침해 콘텐츠에 대한 신속한 삭제 조치 등의 기술적·정책적 방안이 마련되어야 합니다.
넷째, 저작권 보호와 기술 혁신 사이의 균형을 고려한 입법이 필요합니다. 무분별한 규제는 AI 산업의 성장을 저해할 수 있으며, 반대로 무제한적 자유는 창작자의 권리를 훼손할 수 있습니다. 이에 따라 일정 범위 내에서의 공정 이용을 인정하면서도, 창작자의 권리를 실질적으로 보호할 수 있는 유연한 제도 설계가 요구됩니다.
마지막으로, 국제적 기준 마련과 협력이 중요합니다. AI는 국경을 초월하여 작동하기 때문에, 개별 국가의 법제만으로는 문제 해결이 어렵습니다. 국제 저작권 협약과 AI 기술 규범을 바탕으로 한 글로벌 차원의 가이드라인 마련이 필수적입니다. 한국 역시 이에 적극 참여하여, 국제적 기준 형성과 국내 입법 간의 조화를 이루어야 합니다.
이처럼 AI 시대의 저작권 문제는 단순한 기술 문제가 아니라, 창작과 소유, 공정성과 책임, 법과 윤리의 복합적인 요소가 얽혀 있는 중요한 사회적 의제입니다. 이를 해결하기 위해서는 법제도의 정비와 함께 다양한 사회 구성원의 공론화, 교육, 그리고 국제적 연대가 함께 이루어져야 할 것입니다.