2019
7-8월호

너무 사람 같은 소리를 내는 기계를 신뢰할 수 있을까?
데이비드 웨인버거(David Weinberger)

internet

너무 사람 같은 소리를 내는 기계를 신뢰할 수 있을까?

데이비드 웨인버거         

 

 

 

 

모든 것이 소리를 내기 시작할 것이다. 휴대전화는 이미 소리를 내며, 스마트 스피커도 소리를 낸다. 자동차, TV리모컨, 그리고 조만간 토스터도 말하기 시작할 것이다. 이 소리들은 매우 신뢰할 만하지만 동시에 거짓에 기반하고 있다.

 

점차 많은 사람들이 시리, 알렉사, 구글 어시스턴트, 코타나Cortana등 인간의 목소리를 닮은 디지털 어시스턴트digital assistant컴퓨터 앱을 사용하고 있다. 디지털 어시스턴트 앱의 사용자 인터페이스는 기계의 버튼이나 키를 누르는 것보다 더 편리해지고 있다. 양손으로 아이를 안고 있어도 사용이 가능하며, 계란 프라이를 만들면서 멈출 필요 없이 바로 답변을 들을 수도 있고, 오타가 나도 스스로 알아서 고쳐준다. 이제 또 새로운 흐름이 다가오고 있다. 사물인터넷Internet of Things에는 음성 인터페이스가 완벽한 솔루션이다. 음성을 인터페이스로 적용하지 않는다면 연결된 모든 홈 디바이스와 가전제품의 인터페이스와 디스플레이가 각각 다를 수밖에 없다. 이렇게 되면 사용자가 매우 혼란스러울 것이다. 머지 않아 우리는 전기 스위치가 들어간 모든 것들과 이야기하게 될 것이며, 이 모든 것들이 인간 목소리로 우리에게 대답하게 될 것이다.

 

디지털 어시스턴트 등 이러한 시스템은 모두 우리에게 당연히 진실을 말할 것이다. 어차피 우리가 밖에 나가면 디지털 디바이스가 말해준 오늘의 날씨가 맞는지 알게 된다. 집에 돌아와서 오븐에서 저녁거리를 꺼내 보면 오븐 예열이 제대로 됐는지 알 수 있다. 두 배우 중 누가 키가 더 큰지 음성 어시스턴트에 물어보고 나서 그 대답이 맞는지 확인해 볼 수도 있다. 이러한 간단한 실제 상황에서 만약 대답이 사실이 아니라면 그만 사용하면 된다.

 

그러나 이들이 우리에게 말을 할 때마다 한 가지 중요한 거짓말을 한다. 바로 이들이 마치 우리와 같은 인간인 척을 한다는 점이다. 구글의 듀플렉스Duplex AI 어시스턴트는 가끔씩이라고 말한다. 듀플렉스는 예를 들어 레스토랑에 전화를 걸어 예약을 하면서도, 전화 상대방이 AI가 전화했다는 사실을 전혀 알아차리지 못하게 할 수 있는 소프트웨어다. 듀플렉스가이라는 소리를 내는 것은 정말 할 말이 생각나지 않아서가 아니다. 그저 사람을 따라 하는 것이다. 전화 사기꾼이나 마찬가지다. 그 순간에는 효과적일 수 있다. 레스토랑 예약 시 상대방은 자신이 사람이 아니라 기계와 대화하고 있다는 사실을 알아차리고 당황스러워하지 않을 것이다. 그러나 이러한 점은 누가 어떤 목소리를 내는지에 따라 신뢰를 판단하는 우리의 사고방식을 무너뜨릴 수 있다.

 

구글 듀플렉스는 특별하고 다소 이상한 예다. 이 문제에는 일시적 해결책도 있을 수 있다. 만약 레스토랑도 듀플렉스를 사용해 예약을 받는다면, 양쪽의 AI 모두소리를 내면서 사람인 척할 필요 없이 가장 효율적인 로봇 소리를 통해 작업을 수행하면 된다고 가정할 수 있다.

 

그러나 아직까지 디지털 어시스턴트는 모두 인간과 비슷한 소리를 낸다. 이는 제조사들이 우리의 신뢰를 얻길 원하기 때문이다. 제조사들은 인간이 이상하게도 인간 목소리에 정서적으로 이끌린다는 사실을 알고 있다. 그래서 디지털 어시스턴트는 대부분 여성 목소리가 기본으로 설정돼 있다. 적어도 서구에서는, 여성 목소리를 더욱 신뢰할 수 있다고 생각하기 때문이다. 만약 애플이 시리를 강아지처럼 사람에게 코를 비비고 쓰다듬어 달라고 하게 만들 수 있다면, 아마 그렇게 할 것이다. 그러나 그렇게 한다고 신뢰가 더 커지지는 않을 것이다.

 

사람같이 말하고 여성의 목소리를 따라 하면 우리는 신뢰하게 된다. 그렇다고 이렇게 하는 것이 시스템 그 자체를 신뢰하기 어렵기 때문이라고 잘못 이해해선 안된다. 만약 우리가 생물학적으로 개구리 소리를 더 선호했다면, 시리는 개구리 캐릭터인 커밋Kermit같은 소리로 말했을 것이다. 즉 근거 없이 생긴 믿음을 신뢰해서는 안 되는 것이다.

 

게다가, 이렇게 인간화humanizing된 기술이 우리에게 진정 가장 이익이 되는 방식이라고 볼 수도 없다. 알렉사는 내가 자신과 함께 현관 앞 베란다의 흔들의자에 앉아서 달콤한 차를 마시면서 휴식을 취하고 싶어한다고 생각하고 싶겠지만, 사실 이러한 방식은 기계가 우리에게 정보를 전달하는 가장 효과적인 방법이 아니다. 알렉사에게 친근한 대화는 빼고 정보를 빠르게 전달해 달라고 하는 편이 나을 수 있다. 실제로, 정보의 효율적 전달만을 위해서 무미건조하고 빠른 목소리로 이야기하도록 설계된 디바이스가 제조사나 사용자 입장에서 더 이익에 부합한다고 볼 수도 있다. 결국 우리가 알고 싶은 바는 오븐이 200도에서 10분간, 이후 180도에서 30분간 조리된다는 정보이며, 오븐이 우리를 아끼는 척 친근하게 말을 걸어줄 필요는 없다. “이라는 소리를 섞어가면서 사람인 척 내는 목소리보다 기계적 소리가 사실 더 신뢰 갈 수도 있다. 사람도 너무 아첨이나 잡담을 섞어 말하는 것보다 꾸밈없이 내용만 전달하는 것이 더 신뢰가 가는 것과 같은이치다.

 

디바이스에게 사람처럼 말하지 말라고 요구하는 것은 너무한 무리한 것일지도 모른다. 그러나 마치 어떤 우울한 디즈니 영화의 한 장면처럼, 우리 주위의 모든 사물들이 마치 친근한 듯한 가짜 사람 목소리로 말을 걸며 우리의 관심을 받으려고 서로 경쟁하기 시작했다. 이런 상황에서, 사용자가 디지털 어시스턴트의 목소리를영혼 없는 기계 소리로 선택할 수 있게끔 서비스를 제공하는 것이 기업 입장에서 현명한 비즈니스 논리일 수 있다.

 

번역 한지은 에디팅 이미영

데이비드 웨인버거(David Weinberger)는 하버드대의인터넷과 사회를 위한 버크먼 클라인 센터선임 연구원이며, 최근 < Everyday Chaos1 > (Harvard Business Review Press, 2019)를 저술했다. www.JohoTheBlog.com에서 그의 블로그를 방문할 수 있다.

  • 아티클 다운로드
    (PDF)
    5,000원

    담기바로구매

  • 2019년 7-8월호
    25,000원
    22,500원

    구매하기

  • 디지털서비스
    1년 150,000원

    디지털서비스란

    신청하기

혁신 다른 아티클

무료 열람 가능 아티클 수 0/1 회원가입 | 서비스상품안내