
리눅스 커널 개발 커뮤니티가 수개월에 걸친 논의 끝에 AI가 생성한 코드 기여에 관한 공식적인 프로젝트 전체 정책을 수립했다. 리눅스 커널 BDFL인 리누스 토르발스(Linus Torvalds)와 메인테이너 합의로 성립된 이 규정은 AI를 단순한 도구로 인정하는 실용적인 입장을 기본으로 하며 AI 전면 금지는 실효성이 없다고 판단해 이를 부정하고 인간이 책임지고 도구를 활용하는 걸 전제로 한 가이드라인으로 마련됐다.
이번에 정해진 규칙 핵심은 AI 에이전트 자신이 서명 확인(Signed-off-by) 태그를 부여하는 걸 엄격히 금지한다는 것. 서명 확인이란 개발자가 코드를 제출할 때 자신이 작성한 것 또는 적절한 오픈소스 라이선스 하에 재배포할 권리를 갖고 있다는 걸 법적으로 선언하는 방식이다. 이는 개발자 기원 증명서(Developer Certificate of Origin)라 불리는 규약에 동의했다는 걸 나타내는 것으로 코드 출처를 명확히 하고 향후 저작권 분쟁을 방지하기 위한 중요한 법적 절차로 기능한다.
이번 새 규정은 개발자 기원 증명서 인증을 할 수 있는 건 법적 책임을 질 수 있는 인간에 한한다고 명시하며 이 서명 확인 태그를 AI 에이전트 자신이 부여하는 걸 엄격히 금지하고 있다. AI 생성 코드를 포함한 기여물이라도 제출자는 해당 내용을 완전히 검토하고 라이선스 요건 준수를 확인한 뒤 자신의 서명 확인 태그로 모든 책임을 져야 한다.
또 투명성을 유지하기 위한 운용 규칙으로 AI 도구가 개발에 관여한 경우 새로운 지원 참여(Assisted-by) 태그 사용이 의무화됐다. 이 태그에는 사용한 에이전트명, 모델 버전, 구체적인 도구명을 명기하는 특정 형식이 지정되어 있다. 이를 통해 개발 절차에서 AI 역할을 정확히 추적하는 게 가능해진다.
이 배경에는 저작권이 불명확한 학습 데이터에 기반한 AI 코드가 오픈소스 라이선스와 개발자 기원 증명서 체계를 근본부터 흔들 수 있다는 법적 리스크에 대한 우려가 있다.
또 사실에 근거하지 않은 AI 슬롭(AI slop)이라 불리는 저품질 생성물이나 결함을 포함한 패치가 대량 제출되면서 메인테이너 검토 부담이 한계에 달한 현실도 큰 요인이 됐다. 과거에는 AI 사용 사실을 숨기고 제출한 코드로 인해 성능 저하가 발생해 커뮤니티 내 강한 반발을 초래한 사례도 보고된 바 있다.
보도에선 결국 코드가 좋으면 그만이라며 만일 그게 커널을 망가뜨리는 조잡한 AI 제작 코드라면 이를 제출한 인간이 리누스 토르발스에게 책임을 추궁당하게 될 것이라며 오픈소스 세계에서 이보다 강력한 억지력은 없을 것이라고 논평했다. 관련 내용은 이곳에서 확인할 수 있다.
![[AI서머리] AI 영어 교육 ‘에이보랩스’ 투자 유치‧제주창경, 2026 시드머니 투자사업 참여사 모집](https://startuprecipe.co.kr/wp-content/uploads/2026/04/260414_GOPIZZA_502305-75x75.jpg)
![[AI서머리] 23세기아이들, 시리즈A 40억 투자 유치‧크몽, AI 서비스 의뢰 1만 2천 건 돌파](https://startuprecipe.co.kr/wp-content/uploads/2026/04/260414_kodit.co_.kr_5023053-350x250.jpg)
