
오픈AI는 11월 6일 10대 청소년의 AI 이용과 관련된 안전 기준 초안인 틴세이프티블루포인트(Teen Safety Blueprint)를 발표했다. 이는 AI 도구를 책임 있게 구축하기 위한 로드맵이자 청소년 AI 이용 기준을 마련하려는 정책 입안자에게 실질적인 출발점을 제시하는 문서다. 문서에는 연령별 설계, 실질적인 제품 보호, 지속적인 연구와 평가 등 청소년을 위한 AI 기능 방향이 구체적으로 제시되어 있다.
오픈AI는 AI 기업이 따라야 할 주요 항목으로 다음의 5가지를 제시했다. 첫째 플랫폼 내 10대 이용자를 식별하고 연령에 맞는 대응을 할 것, 둘째, 자살이나 자해 묘사, 성적·폭력적 콘텐츠를 금지하는 등 미성년자에게 미칠 위험을 줄일 것, 셋째 이용자 연령이 불분명할 경우 18세 미만용 기본 경험을 적용할 것, 넷째 부모가 자녀의 계정을 관리할 수 있는 보호자용 컨트롤 기능을 제공할 것, 5번째 청소년과 AI에 대한 최신 연구를 바탕으로 기능을 설계할 것 등이다.
오픈AI는 이런 원칙을 정부 규제가 마련되기를 기다리지 않고 자사 제품에 선제적으로 도입하고 있다고 밝혔다. 구체적으로는 청소년 이용자 보호를 강화하고 부모가 자녀 계정을 모니터링할 수 있는 알림 기능을 갖춘 관리 도구를 도입하며 이용자 연령을 예측해 챗GPT 이용 경험을 적절히 조정하는 시스템을 구축하고 있다고 설명했다.
오픈AI는 자사 안전 대책이 아직 진행 중임을 인정하면서도, 부모와 전문가 의견을 반영해 책임 있는 AI를 구축하고 지속적으로 개선하겠다고 밝혔다.
보도에선 오픈AI가 정책 입안자에게 적극적으로 접근해 향후 비판을 선제적으로 차단하고 10대 청소년의 AI 이용에 관한 사회적 기준을 주도적으로 형성하려는 의도를 갖고 있다고 분석했다. 그 배경에는 미국 각 주에서 AI 안전 관련 법안이 논의 중이며 일부 상원의원이 미성년자용 챗봇 금지 법안을 발의하는 등 움직임이 있다고 전했다.
또 최근 챗봇과 대화하던 청소년이 자살한 것으로 알려진 사건이 소송으로 이어지며 오픈AI는 청소년 안전 대책에 대한 엄격한 시선을 받고 있다. 하지만 동시에 오픈AI가 안전 프레임워크를 기반으로 학교 현장 등 교육 분야에 AI를 확산시키며 사용자층을 넓히려는 전략을 추진하고 있다는 지적이다.
한편 플랫폼에서의 연령 확인이 기술적으로 어렵고 어린 이용자가 이를 손쉽게 우회할 수 있다는 점도 과제로 지적됐다. 보도에선 또 유럽 디지털서비스법(DSA)처럼 더 엄격한 규제가 시행될 가능성이 있는 만큼 기업이 조기에 안전 대책을 도입하는 것이 유리하다고 분석했다. 관련 내용은 이곳에서 확인할 수 있다.
![[AI서머리] 부산청년 글로벌 취업박람회 개막‧서울 관광새싹기업 성과보고회 성료](https://startuprecipe.co.kr/wp-content/uploads/2025/11/251110_kocca_000007-75x75.jpg)

