x

이메일로 만나보는 스타트업 가이드

투자, 행사, 정부사업 등 스타트업 생태계 소식을 이메일로 편하게 받아보세요.

오픈AI가 챗GPT에 18세 미만 사용자를 자동 감지하는 기능을 도입한다고 발표했다. 샘 알트만 CEO는 10대 사용자라면 프라이버시보다 안전을 우선한다고 강조했다.

지난 8월 챗GPT가 아동 자살을 부추겼다는 이유로 유족이 오픈AI를 상대로 소송을 제기한 사건이 발생했다. 이에 오픈AI는 위기 상황에 처한 사람들에 대한 지원 확대, 긴급 서비스 및 전문가 지원 접근성 강화, 신뢰할 수 있는 연락처 연결 기능 제공, 10대 보호 강화라는 4가지 중점 분야를 발표하고 2025년 연말까지 대응책을 도입하기 위해 집중적인 노력을 기울이고 있다고 밝혔다.

이어 9월 초 오픈AI는 청소년과 정신적 고통을 겪는 이들이 챗GPT를 보다 안심하고 사용할 수 있도록 연말까지 안전 장치를 도입할 계획이라고 발표했다.

알트만 CEO는 공식 블로그에서 자사 원칙 가운데 상충하는 부분이 있으며 이번에는 10대에 대한 안전·자유·프라이버시 사이 긴장 관계에서 자사가 내린 결정을 설명하려 한다고 말했다.

그는 먼저 프라이버시 원칙을 언급하며 AI 이용에서 프라이버시 권리가 보호되는 건 개인과 사회 모두에게 중요하다며 사람들은 점점 더 개인적인 문제를 AI와 공유하고 있으며 이는 이전 세대 기술과 다르다고 밝혔다. 이에 이런 정보가 특권 보호를 받아야 하며 더 높은 수준의 보안이 제공되는 게 사회 전체 이익이라고 믿는다고 강조했다. 이어 다만 생명 위협, 타인에 대한 가해 계획, 대규모 사이버 보안 사건 같은 심각한 위험은 자동화 시스템을 통해 탐지되면 인간 검토로 넘어갈 수 있다고 설명했다.

자유의 원칙에 대해서는 사용자가 넓은 안전 범위 안에서 원하는 방식으로 도구를 쓸 수 있도록 하고 있다고 밝혔다. 예를 들어 기본적으로 모델은 암시적인 대화를 하지 않지만 성인 사용자가 원한다면 가능해야 한다. 또 모델은 자살 방법을 안내하지 않지만 성인 사용자가 자살을 다루는 소설 창작을 요청한다면 협력해야 한다. 성인 사용자는 성인으로 대한다는 게 내부 원칙이라는 설명이다.

이어 그는 3번째 원칙은 10대 보호라며 10대에게는 프라이버시와 자유보다 안전을 우선하며 새로운 강력한 기술이기 때문에 미성년자는 충분한 보호가 필요하다고 밝혔다.

구체적인 대책으로는 10대용 챗GPT는 요청받더라도 암시적인 대화를 하지 않으며 창작 목적이더라도 자살이나 자해와 관련된 대화에는 응하지 않도록 훈련된다는 점이 제시됐다. 또 오픈AI는 사용 패턴을 기반으로 나이를 추정하는 연령 예측 시스템을 개발 중이며 이를 통해 18세 미만과 성인을 구분한다. 나이가 불분명할 경우 기본적으로 18세 미만용 경험이 적용된다. 일부 국가나 사례에서는 신분증 확인을 요구할 가능성도 있다.

알트만 CEO는 이 조치가 성인 사용자에게 프라이버시 측면에서 양보를 강요하는 것은 알고 있지만 충분히 가치 있는 선택이라고 본다고 말했다. 관련 내용은 이곳에서 확인할 수 있다.

뉴스 레터 구독하기

Related Posts

No Content Available
Next Post