Scroll to top
© 2020, Startuprecipe theme by Rssow
Share

이 프로젝트…AI 학습에 작품 무단 활용 못하게 만든다


정용환 기자 - 2024년 2월 7일

아티스트의 동의 없이 AI 모델 학습에 작품이 사용되는 일을 막기 위한 프로젝트가 나왔다. 시카고 대학의 나이트쉐이드(Nightshade) 프로젝트는 이미지 데이터를 독성으로 만들어 AI 모델 학습을 방해하는 방식으로 아티스트에게 대응 방안을 제공한다.

프로젝트를 이끈 벤 자오 교수는 이 방식을 사무실 냉장고에서 점심을 훔쳐가지 않도록 핫 소스를 넣는 것과 비교했다. 나이트쉐이드는 텍스트 프롬프트 간의 연결을 타겟팅해 AI 모델을 속이기 위해 이미지 픽셀을 변경한다. 모델은 독성화된 데이터를 충분히 학습하면 해당 프롬프트와 전혀 관련 없는 이미지를 생성하기 시작한다.

나이트쉐이드의 목표는 라이센스가 없는 데이터로 모델을 교육하는 것을 불가능하게 만드는 것이며 이를 위해 기업은 작가들이 작품에 대한 보상을 받을 수 있도록 정확하지 않은 이미지를 라이센스해야 한다.

이런 노력은 예전에도 이루어졌으며 게티이미지와 엔비디아는 최근 게티의 스톡 사진 라이브러리를 사용해 완전히 학된 AI 도구를 출시했다. 가입자들은 생성하려는 사진 수에 따라 수수료를 지불하며 모델 교육에 사용된 작가들은 가입 수익의 일부를 받는다.

Author avatar

정용환 기자

대기업을 다니다 기술에 눈을 떠 글쟁이로 전향한 빵덕후. 새로운 기술과 스타트업을 만나는 즐거움을 독자들과 함께 나누고 싶습니다.

추천기사

이메일로 만나보는 스타트업 가이드

투자, 행사, 정부사업 등 스타트업 생태계 소식을 이메일로 편하게 받아보세요.