아티스트의 동의 없이 AI 모델 학습에 작품이 사용되는 일을 막기 위한 프로젝트가 나왔다. 시카고 대학의 나이트쉐이드(Nightshade) 프로젝트는 이미지 데이터를 독성으로 만들어 AI 모델 학습을 방해하는 방식으로 아티스트에게 대응 방안을 제공한다.
프로젝트를 이끈 벤 자오 교수는 이 방식을 사무실 냉장고에서 점심을 훔쳐가지 않도록 핫 소스를 넣는 것과 비교했다. 나이트쉐이드는 텍스트 프롬프트 간의 연결을 타겟팅해 AI 모델을 속이기 위해 이미지 픽셀을 변경한다. 모델은 독성화된 데이터를 충분히 학습하면 해당 프롬프트와 전혀 관련 없는 이미지를 생성하기 시작한다.
나이트쉐이드의 목표는 라이센스가 없는 데이터로 모델을 교육하는 것을 불가능하게 만드는 것이며 이를 위해 기업은 작가들이 작품에 대한 보상을 받을 수 있도록 정확하지 않은 이미지를 라이센스해야 한다.
이런 노력은 예전에도 이루어졌으며 게티이미지와 엔비디아는 최근 게티의 스톡 사진 라이브러리를 사용해 완전히 학된 AI 도구를 출시했다. 가입자들은 생성하려는 사진 수에 따라 수수료를 지불하며 모델 교육에 사용된 작가들은 가입 수익의 일부를 받는다.
