내 저작물을 지켜야 한다.
창작자가 생성형 AI의 착취로부터 자신의 작품을 보호할 수 있는 기술이 등장했다.
나이트셰이드(Nightshade)는 AI 학습 데이터를 속여 잘못된 결론을 내리도록 유도하는 도구다. 이 도구는 창작물 내에 보이지 않는 픽셀로 구성되어 있는데, 이는 AI가 해당 작품에서 학습할 때 영향을 미친다
아티스트의 저작권 보호를 위해 AI를 속이는 도구 'Nightshade'
애플의 핵심 시장 중 하나는 창의적 업무에 종사하는 사용자층이다. 그리고 이들은 AI의 영향을 받을 가능성이 높은 집단이다. 따라서 그들이 판을 뒤흔들어야 할까? 나이트셰이드(Nightshade)라는 도구의 개발진은 그렇게 바라본다.
이미지, 동영상, 이야기를 생성하는 새 도구가 등장함에 따라 애플의 전통적인 핵심 사용자들이 영향을 받을 가능성이 높다. 또 이 분야에의 자동화는 크리에이티브 시장의 비즈니스 모델과 맞닿아 있기에 반발을 쉽게 예상할 수 있다. 그렇다면 창의적 업무에 종사하는 이들이 생성형 AI의 행보에 걸림돌을 놓게 될까?
나이트쉐이드 작동방식
나이트쉐이드는 이미지의 특징과 일치하도록 이미지의 픽셀을 미묘한 방식으로 변경하며 작동한다. 인간의 눈으로는 인식할 수 없지만 작은 변화는 이미지의 피사체가 실제와 다른 것이라고 믿게 AI를 속인다.
예를 들어, 연구원들은 개의 이미지를 촬영하여 고양이의 시각적 특징과 일치하도록 이미지를 미묘하게 변경하여(고양이의 "앵커" 이미지를 사용) 이미지를 오염시킨다. 이미지를 교육용 데이터로 사용하는 AI는 이제 개를 고양이로 인식하여 결과적으로 AI가 생성한 이미지를 왜곡한다.
나이트쉐이드의 핵심 측면은 AI 데이터 세트를 오염시키는 잠재력이다. 나이트쉐이드는 AI를 혼란스럽게 만들려는 첫 번째 도구는 아니지만 가장 효과적이려고 노력하고 있다. 실제 오염된 이미지 50~200개만으로도 이 도구는 훈련된 AI를 눈에 띄게 왜곡할 수 있다.
나이트쉐이드 연구원들은 논문에서 어떻게 아티스트와 기타 지적 재산권 소유자가 그들의 작품을 보호하기 위해 나이트쉐이드와 같은 도구들이 사용될 수 있는지를 강조한다. 나이트쉐이드는 또한 오염된 인공 지능의 효율성을 파괴하지 않으면서 동시에 예술가들의 지적 재산을 보호할 수 있다.
예를 들어, 인공 지능의 훈련 데이터를 완전히 파괴하지 않도록 과정과 관련된 것을 인공 지능에게 제공하면서, 예술가는 그들의 특정 스타일을 보호할 수 있다. 또한 예를 들어 로열티가 없는 개의 이미지의 특징들을 사용함으로써 예술가들의 개와 관련 작품들을 보호한다. AI를 둘러싼 윤리적 논쟁이 계속됨에 따라, 일부 인공 지능 제공업체들은 이미 제작자들이 그들의 작품이 어떻게 사용되는지를 통제할 수 있는 더 나은 도구로 대응하고 있다.
예를 들어, #NoAI 태그는 예술가들이 인공 지능 목적을 위해 그들의 이미지를 사용하는 것에 동의하지 않는다는 것을 표현하는 것이 점점 더 일반화되고 있다. 더불어 Adobe Firefly와 같은 인공 지능 도구들은 이제 웹에서 스크랩 된 이미지와 다른 의심스러운 이미지 소스들보다는 허가된 이미지들 만을 사용하여 훈련되고 있다.
나이트쉐이드가 크리에이티브 커뮤니티에 미칠 영향을 아직 확인하지는 못했지만 아티스트들에게 그들의 작품이 AI의 사용으로부터 보호될 수 있다는 희망을 준다. 나이트쉐이드는 본질적으로 예술가의 허가 없이 이미지를 무단 사용하는 인공 지능을 방해하며 이는 사실상 생성 AI 제공업체가 예술가의 조건에 따라 윤리적인 관행을 따르도록 효과적으로 통제할 것이다.
보호를 위한 가능성은 이미 시작되어왔다.
챗GPT와 생성형 AI가 올해 가장 이목을 집중시키는 기술로 떠오른 이후, 창의적 작업 분야에 몇몇 파문이 이미 발생했다. 저작권 침해 소송이 제기되고, 정보가 유출됐다. 저작권으로부터 자유로운 콘텐츠를 사용해 AI를 학습시키려는 움직임이 분주해지기도 했다. 특히 크리에이티브 시장에 뿌리를 두고 있는 어도비는 이러한 변화에 발맞춰 사용 권한을 확보한 자산만을 사용하도록 AI를 훈련하고 있다.
생성형AI를 방해하는 오염 도구의 등장
창작물을 통해 수익을 창출할 수 있는 권리는 크리에이티브 산업의 근간이다. 원한다면 공유할 수 있지만, "모든 것이 무료여야 한다"는 입장과 "예술가도 생계를 유지할 자격이 있다"는 입장 사이에는 여전히 큰 격차가 존재한다. 저작권만큼이나 오래된 이 논의에 있어 접근성과 탈취 사이의 균형은 반복적으로 쟁점화되곤 한다. 이를 테면 냅스터가 음악 산업을 거의 고사시킬 뻔했지만 아이튠즈가 업계를 구했던 사례에서도 유사한 논의가 있었다.
어쩌면 이제 새로운 재설정이 필요한 시점일 수 있다. 그리고 창작자가 생성형 AI(더 정확히 말하면 도구를 소유한 회사)의 착취로부터 자신의 작품을 보호할 수 있는 기술이 등장했다. 나이트셰이드(Nightshade)는 AI 학습 데이터를 속여 잘못된 결론을 내리도록 유도하는 도구다. 이 도구는 창작물 내에 보이지 않는 픽셀로 구성되어 있는데, 이는 AI가 해당 작품에서 학습할 때 영향을 미친다.
이러한 독성 픽셀(poison pixels)은 학습 과정을 방해하여 AI가 쓸모없는 데이터를 생성하게 만든다. MIT 테크놀로지 리뷰는 그 결과 개가 고양이가 되고, 고양이가 소가 될 수 있다고 설명했다.
즉, 합법적인 창작물에 숨겨진 쓰레기 페이로드를 숨겨놓음으로써 이를 학습 데이터로 사용하는 생성형 AI 도구가 쓰레기 결과를 제공 유도하는 것이다. "가비지 인, 가비지 아웃"이라는 말을 떠올릴 수 있겠다.
크리에이티브 산업 강화
개발진의 백서에 따르면, 나이트셰이드 개발진은 창의적인 사람들이 자신의 작품을 보호할 수 있는 더 많은 권한을 부여하기를 희망한다고 강조했다.
"우리는 옵트아웃/크롤링 금지 지침을 무시하는 웹 스크레이퍼에 대한 콘텐츠 크리에이터의 최후의 방어 수단으로 나이트셰이드 및 유사한 도구의 사용을 제안한다. 모델 트레이너와 콘텐츠 크리에이터에게 미칠 수 있는 영향에 대해 논한다"라고 개발자들은 기술했다.
이런 종류의 도구가 더 많이 등장할까? 전 세계의 콘텐츠 제작자와 퍼블리셔가 규제되지 않은 생성형 AI의 사용으로 인한 영향으로부터 자신들의 권리를 되찾기 위해 노력하고 있다는 점을 감안하면 가능성이 높다. 이사 케라만스 가트너의 애널리스트는 저작, 저작권, 소유권, 진위 여부와 관련된 법적, 윤리적 고려사항이 이제 생성형 AI의 성공적인 사용을 위해 매우 중요한 요소로 인식되고 있다고 지적했다.
보호주의에 위한 비즈니스
세상의 모든 정보가 데이터가 되면 소수의 AI 도구를 소유한 소수의 사람(또는 조직)만이 승자가 될 가능성이 높다. 이는 개인 크리에이터들에게 현실적인 우려지만, 대형 크리에이티브 퍼블리셔에게도 해당되는 문제다. 예를 들어, 신문사들은 자사 기사가 이러한 모델을 학습시키는 데 사용될 때 대가를 받기를 원할 수 있다. 즉 윤리적 동기와 금전적 동기가 모두 존재하고 있으며, 이는 결국 생성형 AI 도구 기업이 크리에이티브 자산에 대한 대가의 지불을 감안해야 할 수 있다는 의미다.
또한 AI 학습 시스템에 의한 무분별한 크리에이티브 자산 사용에 일종의 제동을 거는 것이 다양한 크리에이티브 표현을 보존하는 데 필수적이라는 주장도 자연스레 펼쳐질 수 있다.
인간 우선적 접근
다시 첫 이야기로 돌아가본다. 애플의 전통적인 핵심 사용자층이 이 새로운 기술에 큰 영향을 받을 수 있다는 점은 흥미롭다. AI 개발 기업들이 이러한 사용자층에 기여할 수 있는 한 가지 방법은 크리에이티브 자산을 보호하기 위한 시스템 차원의 접근 방식을 개발하는 것일 수 있다. 콘텐츠가 저장될 때 나이트셰이드와 같은 도구가 시스템적으로 적용되는 경우다. 어쩌면 우리 모두에게 인기 있는 기능이 될 지도 모르는 일이다.
'AI시대가 온다' 카테고리의 다른 글
알리바바 컴퓨팅연구소가 공개한 생성AI 'EMO' (9) | 2024.02.29 |
---|---|
오픈AI(Open AI) '소라(Sora)'... text로 만든 생성AI 비디오 (12) | 2024.02.21 |
온디바이스 AI폰 시대 '갤럭시 S24' (0) | 2024.01.18 |
AI '미드저니' 무단 도용사실 대량 폭로 (0) | 2024.01.04 |
AMD 새로운 AI 야심작 반도체 'MI300X' (0) | 2023.12.09 |
내년 AI 테마는 '온디바이스'(on-device) (0) | 2023.11.30 |
AI 언어 모델 총정리 (0) | 2023.11.29 |
의사·한의사 AI 대체될 위험 가장 크다 (0) | 2023.11.16 |