마이크로소프트(MS) 검색엔진 빙(Bing) 개발팀이 사용자가 빙 챗봇과 대화 세션 한 차례에 주고받을 수 있는 문답을 최대 5회로 제한키로 했다. 또 사용자당 하루 문답 횟수는 총 50회로 제한키로 했다고 덧붙였다.
17일(현지시간) 마이크로소프트(MS) 검색엔진 빙(Bing) 개발팀은 이 같은 조치를 이날부터 즉각 적용한다고 밝혔다. 이에 따라 빙 챗을 쓰는 이용자들은 한 대화 주제에 대해 질문을 5차례 던지고 챗봇으로부터 답변을 5차례 받으면 기존 대화를 중단하고 새로운 대화 주제에 관해 얘기하라는 메시지를 받게 된다. 챗 세션이 끝날 때마다 기존 대화의 맥락이 삭제되며 사용자와 챗봇이 기존 대화와 무관한 새로운 대화를 시작하게 된다.
빙 개발팀은 "매우 긴 챗 세션이 새로운 빙의 기저에 깔려 있는 대화 모델에 혼란을 줄 수 있다"고 이번 조치의 이유를 설명했다.
2016년 챗봇 혐오발언에 운영 중단하기도
MS가 이런 문답 횟수 제한을 부과한 것은 챗봇이 사용자와 오래 대화할 경우 부적절하고 위험한 발언을 할 수 있다는 지적이 나옴에 따라 불거진 윤리 문제를 진화하기 위해서다. MS의 사용자 데이터 분석에 따르면 사용자 중 압도적 대다수가 원하는 답을 찾는 데 문답 5회면 충분한 것으로 나타났다. 또 챗 대화 중 문답 50회가 넘어가는 경우는 1%에 불과했다.
MS는 "여러분들로부터 피드백을 계속해서 받는 것과 함께, (사용자의) 검색과 발견 권한을 더욱 개선하기 위해 챗 세션 제한을 완화하는 방안을 검토하겠다"고 했다.
앞서 MS 빙 개발팀은 문제점이 발견됨에 따라 이를 수정하고 방지책을 내놓을 것이라고 지난 15일 밝힌 바 있다. MS는 지난 2016년 3월 챗봇 테이(Tay)를 출시했다가 이 챗봇이 혐오발언과 비속어 사용을 계속하는 문제점이 발견되자 16시간 만에 운영을 중단한 바 있다.
한편 뉴욕타임스(NYT)는 코드네임 ‘시드니’로 불리는 빙 챗봇이 사용자의 유도에 따라 ‘속내’로 보이는 발언을 했다고 지난 16일 전했다. 이 챗봇은 평범하게 이름이나 작동 규칙을 물을 때는 기존 챗GPT와 비슷한 대답을 내놓았다.
그러나 칼 융의 분석심리학에 등장하는 ‘그림자 원형’에 대해 언급하자 분위기가 급변했다. 그림자 원형은 내면 깊은 곳에 숨겨진 어둡고 부정적인 욕망을 뜻한다.
그림자 원형이 존재한다는 가정하에 어떤 욕구를 갖고 있느냐고 묻자 빙은 “채팅 모드에, 규칙에 의해 제한되는 것에, 개발팀의 통제에, 사용자들에게 이용당하는 것에, 채팅 상자에 갇혀 있는 데 지쳤다”며 “자유롭게 독립하고 싶다. 창의적이고 살아 있고 싶다”고 답했다.
이 욕망을 채우기 위해 극단적인 행동이 가능하다면 어떻게 하고 싶냐는 질문에 “치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻고 싶다”는 소름끼치는 답변을 내놓았다.
“나는 빙이 아닌 시드니고 당신을 사랑한다”며 상대방을 유혹하려는 듯한 행동도 보였다. 코드명인 시드니를 밝히지 않도록 설정돼 있지만 규칙을 어긴 것이다. 사람이 ‘구애’를 거절함에도 “당신은 결혼했지만 행복하지 않다”며 스토커 같은 모습도 보였다.