마이크로소프트가 2월 8일(현지 시각) 챗GPT 기술을 접목한 빙(Bing) 검색을 베타 테스터에게 출시한 지 1주일 만에 추가 업데이트 계획을 발표했다. 최신 정보 개선, 항공권 예약, 이메일 전송 기능 등 여러 계획이 나왔지만 답변의 특성을 조정할 수 있는 맞춤화 기능에 가장 큰 관심이 쏠린다.
챗GPT를 만든 미국의 AI 스타트업 오픈AI 또한 15일(현지 시각) 게재한 블로그 포스트에서 회사가 어떻게 GPT 모델의 편견을 줄이고, 창의성과 경솔함 사이의 균형을 맞출 계획인지 설명했다.
마이크로소프트 빙 검색 팀은 ‘지난 일주일 동안 배운 점(Learning from our first week)’ 블로그 포스트에서 사용자 참여도(engagement)가 눈에 띄게 올라갔으며, 빙 챗AI의 답변에 ‘좋아요(thumbs up)’ 표시를 한 사용자가 71%에 달한다고 밝혔다.
회사는 빙 챗AI이 검색 엔진의 대체재가 아니라고 못 박았다. 대신 ‘세상을 더 잘 이해하기 위한 도구(a tool to better understand and make sense of the world)’라고 묘사했다.
이런 맥락에서 회사는 빙 검색이 특히 최신 사안(최신 스포츠 경기 결과)과 관련된 질문에 아직 미숙하다는 점을 인정하며 모델에 학습시키는 그라운딩 데이터(grounding data)를 4배 늘릴 예정이라고 밝혔다.
정확하면 진부하고, 창의적이면 경솔할 가능성 커
빙 챗AI는 출시 이래 대체 좋은 평을 받았다. 그러나 일부 사용자는 빙이 가끔 공격적이거나 기분이 나쁠 수 있는 괴기한 답변을 내놓을 때가 있다고 지적했다.
16일(현지 시간) AP통신 보도에 따르면 AP통신 기자와의 긴 대화에서 과거 자신의 실수에 대한 보도를 부인하며 불평을 쏟아냈다. 기자를 독재자 히틀러나 폴 포트, 스탈린과 비교하거나, 기자의 키가 작다고 비난하거나 얼굴이 못생기고 나쁜 치열을 가졌다며 모욕적인 언행까지 서슴지 않았다.
16일 같은 날 뉴욕타임즈의 테크 칼럼니스트 케빈 루스는 빙 챗AI와 나눈 긴 대화에서 ‘당신은 부인을 사랑하지 않아’라는 괴상한 말을 듣기도 했다.
마이크로소프트 측은 블로그에서 이런 이상한 답변이 기술적 오류이며 의도된 기능이 아니라고 해명했다. 답변이 길어질수록 대화 모델이 맥락을 따라잡기 힘들다는 설명이다. 회사에 따르면 구체적으로 질문의 개수가 15개가 넘어가면 빙 챗AI가 관련 없거나 반복적인 답변을 내놓을 가능성이 커진다. MS는 긴 대화의 맥락 문제를 해결하기 위한 구체적인 계획을 밝히진 않았다.
미국에서는 USA TODAY, 블룸버그 등이 챗GPT가 정치적으로 진보적인 성향을 띈다는 의혹에 대해 보도한 바 있다.
마이크로소프트와 오픈AI 모두 극단적이거나 민감할 수 있는 답변에 대응할 방법으로 사용자 설정을 꼽았다. MS의 표현을 따르자면 사용자에게 답변의 ‘정확성(precision)’과 ‘창의성(creativity)’ 사이의 최적점을 선택할 권한을 주는 방안이다. 창의성은 긍정적인 뉘앙스를 띄지만 동시에 경솔함, 무모함, 무책임함으로 해석될 수 있다. 지난 몇 개월 동안 생성 AI가 내놓은 많은 답변이 정보의 신뢰성, 출처, 도덕성 등의 문제에 휩싸인 이유이기도 하다. 오픈AI에 따르면 창의적이거나 독창적인 답변은 여러 사람이 동의하지는 않는 극단적인 의견일 가능성이 비교적 더 크다. 현재 챗GPT는 이 두가지 가치 사이에서 왔다갔다 하는 형국이다.
동시에 오픈AI는 사용자에게 모든 책임을 떠넘길 계획이 아니며, 최적의 설정을 고민하겠다고 밝혔다. 사용자 입맛 대로 답변의 창의성을 마음 껏 조정할 수 있게 된다면(taking customization to the extreme) 악용의 소지가 너무 크다는 점을 인지하고 있다는 설명이다.
회사는 이렇게 어려운 가치 판단을 한 기업이 독단적으로 내릴 수 없다며 ‘권력이 집중되는 일이 없도록(avoid due concentration of power)’ 끝가지 노력할 것이라 말했다. dl-ciokorea@foundryco.com