아이의 죽음이 챗GPT 탓이라며 한 부모가 소송을 제기한 가운데 오픈AI가 18세 미만 전용 챗GPT를 이달 말 출시하기로 했다. 청소년 이용자의 안전을 최우선으로 고려한 조치다.
오픈AI는 16일(현지시간) "18세 미만 사용자를 위한 별도의 보호 기능을 포함한 챗GPT 서비스를 공개한다"고 밝혔다. 미성년자가 접속할 경우 자동으로 전용 환경으로 전환되며 성적이거나 폭력적인 대화는 원천 차단된다. 만약 심각한 위기 상황이 발생하면 법 집행 기관이 개입할 수 있도록 설계됐다.
연령 식별 정확도를 높이기 위한 기술도 병행된다. 오픈AI는 "나이를 확정하기 어렵거나 정보가 부족하면 기본적으로 미성년자 전용 챗GPT로 안내한다"고 설명했다.
보호자 기능 역시 한층 강화된다. 부모는 자신의 계정을 자녀 계정과 연결해 사용 시간을 제한하거나 챗봇의 대답 방식을 미리 설정할 수 있다. 또 자녀가 큰 정신적 고통을 호소하는 경우 즉시 알림을 받아 대응할 수 있도록 했다.
이번 결정은 최근 미국 연방거래위원회(FTC)가 오픈AI를 포함한 AI 기업들을 대상으로 청소년 안전 실태 조사를 시작한 가운데 나온 것이다. FTC는 "아동과 청소년에게 챗봇이 끼칠 잠재적 악영향을 확인하기 위해 자료 제출을 요구했다"고 밝힌 바 있다.
샘 올트먼 오픈AI 최고경영자(CEO)는 이날 블로그에 "우리는 10대의 자유나 사생활보다 안전을 더 중시한다"며 "이 기술은 강력한 만큼 미성년자에게는 특별한 보호 장치가 필요하다"고 강조했다. 이어 "전용 챗GPT 출시를 결정하기까지 쉽지 않았지만 전문가들과 논의한 끝에 최선이라 판단했다. 우리의 방침을 투명하게 알리고 싶다"고 덧붙였다.