x

이메일로 만나보는 스타트업 가이드

투자, 행사, 정부사업 등 스타트업 생태계 소식을 이메일로 편하게 받아보세요.

누구나 어디서든 신뢰할 수 있는 정보에 자유롭고 개방적으로 접근하고 공유할 수 있도록 하는 걸 사명으로 내걸고 지식에 대한 접근은 인권이라고 믿는다는 위키미디어 재단이 위키백과 및 기타 위키미디어 프로젝트에 인공지능(AI)과 머신러닝(ML)이 어떤 영향을 미칠 수 있는지에 대한 이해를 돕기 위해 2024년 실시한 AI·ML 관련 인권 영향 평가 보고서 내용을 공개했다.

위키미디어 프로젝트에게도 위키미디어 프로젝트를 지원하는 자원봉사자에게도 AI와 ML은 결코 새로운 존재가 아니며 프로젝트 전체에서 축적되는 지식 공유·편집·분류를 지원하기 위해 수많은 ML 도구를 개발해 왔다고 한다. 구체적으로는 파괴 행위 식별이나 출처가 필요한 부분에 플래그 표시와 같이 반복적으로 빈번하게 수행되는 작업 지원용 도구가 많으며 대부분은 생성형 AI가 등장하기 전에 개발됐다.

보고서에서는 작업 지원용 AI·ML 도구, 생성형 AI와 위키미디어 환경에서의 잠재적이고 경미한 인권 리스크 가능성, 외부 ML 개발에 사용될 수 있는 위키미디어 프로젝트상 콘텐츠라는 3가지 카테고리 리스크 평가가 진행됐다.

먼저 위키미디어 재단이 자원봉사 편집자 지원용으로 개발한 자체 AI·ML 도구에 대해서는 표현의 자유나 교육받을 권리 등 여러 인권에 적극적으로 기여할 가능성을 지니고 있다고 긍정적인 평가가 이뤄졌다. 다만 AI·ML을 활용한 도구에서 이미 알려진 한계로부터 발생하는 리스크로 기존 격차나 편견을 증폭·영속화시키거나 콘텐츠에 삭제 대상이라는 잘못된 플래그를 표시할 가능성이 지적되고 있다. 이런 리스크가 대규모로 표면화될 경우 위키미디어 자원봉사자에게 악영향을 미칠 수 있다고 한다.

외부 생성형 AI 도구가 위키미디어 프로젝트에 가져오는 리스크로는 유해 콘텐츠 생성 규모·속도·고도화 촉진이 확인되고 있다. 생성형 AI 도구는 유도적 콘텐츠 생성을 여러 언어로 동시에 자동 수행할 수 있어 탐지와 모더레이션이 어렵다. 게다가 특정 개인이나 커뮤니티를 대상으로 한 비방을 대량으로 생성할 수도 있기 때문에 리스크를 적절히 완화하지 못하면 위키미디어 자원봉사자 뿐 아니라 일반 시민 권리에도 악영향을 미칠 가능성이 있다고 보고서는 지적하고 있다.

그리고 위키미디어 프로젝트의 콘텐츠가 대규모 언어 모델 훈련에 사용될 경우 편향이나 표현, 데이터 품질과 정확성, 프라이버시나 문화적 민감성 등과 관련된 문제 리스크 요인이 될 수 있다는 우려도 제기되고 있다. 연구자는 잠재적 리스크 모니터링을 권장하면서도 이미 지속적인 데이터 품질 개선 이니셔티브와 공정성에 초점을 맞춘 프로그램을 통한 대응이 이뤄지고 있어 문제의 리스크가 완화되고 있다는 게 확인하고 있다고 한다.

https://platform.twitter.com/widgets.js

한편 위키백과를 의식이 너무 높다고 비판하는 일론 머스크가 AI 기업 xAI를 통해 위키백과와 같은 백과사전 서비스인 그로키피디아(Grokipedia)를 구축하고 있다고 밝혔다. 다만 그로키피디아 내용이 그록을 이용한 100% AI 생성인지 등 자세한 사항은 명확히 밝혀지지 않았으며 내용 편향성도 우려되고 있다. 관련 내용은 이곳에서 확인할 수 있다.

뉴스 레터 구독하기

Related Posts

No Content Available
Next Post