AI가 우리의 생활과 업무의 모든 측면에 침투하면서 점점 더 인간의 모습과 소리를 닮아가고 있다. 자연스러운 억양으로 대화를 나눌 수 있는 가상 비서부터 사람의 표정을 그대로 재현하는 디지털 아바타까지 AI는 점점 더 인간의 외모와 행동 닮아간다. 오픈AI가 최근 챗GPT에 출시한 고급 음성 모드를 예로 들어보자. 이 모드는 실제 배우의 목소리를 사용해서 사람 같은 톤, 자연스러운 대화, 감정적 반응을 구현함으로써 "따뜻하고 매력적이며 자신감을 불어넣고 카리스마 넘치는" AI를 만드는 것을 목표로 했다. 마찬가지로 두 번째로 인기 있는 생성형 AI 애플리케이션인 캐릭터.aCharacter.ai는 사용자가 라이브라리언 린다Librarian Linda, 일론 머스크, 심지어 나폴레옹 보나파르트와 같은 가상의 또는 역사적 인물과 소통할 수 있게 해준다.
대부분의 기업은 AI가 사람의 얼굴이나 목소리를 갖추면 더 좋아하고 신뢰할 것이라고 생각하는 것 같다. 이러한 직관적인 생각은 실제로 AI를 의인화하면 소비자 신뢰에 긍정적인 영향을 미친다는 일부 과학적 증거와 일치한다.
하지만 이것이 AI를 인간이 더 수용하고 신뢰할 수 있게 만드는 최선의 방법일까? 필자들은 AI를 의인화하는 것이 최적의 접근 방식이 아닐 수 있으며 의도치 않은 결과를 초래할 수도 있다고 주장한다. 예를 들어 인간 같은 AI를 만들면 그 능력에 대한 비현실적인 기대치가 설정된다. 따라서 기대에 못 미치면 실망감과 좌절감을 초래할 수 있다. 최근 연구에 따르면 고객이 이미 화가 난 상태에서 의인화된 챗봇을 사용할 때 고객 만족도, 회사 평가, 구매 의도를 낮추는 것으로 나타났다. 이러한 반응은 부풀려진 기대치가 충족되지 않았기 때문이다. 간단히 말해 소비자는 인간과 유사한 챗봇에 더 많은 것을 기대하고 이를 충족시키지 못했을 때 실망감을 느낀다.
또 다른 연구에서는 의인화된 도우미의 도움을 받은 게임 플레이어가 도움을 받지 않은 경우에 비해 컴퓨터게임을 덜 즐긴다는 사실을 발견했다. 이는 인간 같은 도우미가 게임을 즐기는 데 있어 핵심 요소인 플레이어의 자율성을 약화시켰기 때문이다.
AI를 의인화하려는 노력은 언캐니 밸리uncanny valley에 빠질 수도 있다. 이는 AI가 거의 인간처럼 보이지만 인간은 아니어서 친숙함과 유대감보다는 불안감과 불편함을 유발하는 현상을 의미한다. 마지막으로 AI를 의인화할 때 수반되는 AI의 성별과 인종에 대한 결정이 (의도치 않게) 유해한 고정관념을 영구화할 수 있다. 이러한 일이 발생하지 않도록 일부 소프트웨어 개발자는 가상 비서에게 성 중립적인 목소리를 부여하기 시작했다.