2022년 11월, 오픈AI가 생성형 인공지능 챗봇 챗GPT를 공개한 직후 구글은 자사의 챗봇 바드Bard(현재 제미나이Gemini)를 출시했다. 바드의 첫 공개 시연에서 제입스 웹 우주 망원경의 발견에 대한 질문에 중대한 오답이 생성됐다. 이로 인해 구글의 모회사 알파벳의 주가는 9% 하락했고 당시 약 1000억 달러에 이르는 시장 가치가 증발했다.
이 두 사건에서 전문가와 기업 모두 챗봇 콘텐츠를 비판적으로 검토하지 않고 사용했다. 그러나 이것은 빙산의 일각에 불과하다. 거대 언어 모델(LLM)을 서둘러 대중에게 공개하는 과정에서 이러한 도구들이 허위 정보와 잘못된 정보를 생성한 사건이 수차례 발생했다. 그 결과 관리자와 조직은 정보의 정확성에 대한 기대와 전문적 기준에 따라 다양한 새로운 위험성이 증가하는 것에 대해 인식하기 시작했다.
이 아티클에서는 이러한 위험의 본질을 탐구하고 연구를 통해 이를 어떻게 관리할 수 있을지에 대한 정보를 제공한다.
새로운 도구와 새로운 위험
챗봇의 잠재적인 응용 가능성에 대한 기대와 흥분 속에서 우리가 언급하는 "봇쉿botshit의 인식론적 위험"이 존재한다. 봇쉿이란 사람들이 무비판적으로 사용하는 허구적이거나 부정확하며 거짓된 챗봇 콘텐츠를 의미한다.
봇쉿의 위험을 효과적으로 관리하지 않으면 전문가, 리더, 그리고 그들이 속한 조직에 큰 영향을 미칠 수 있다. 이러한 위험은 평판 손상, 잘못된 결정, 법적 책임, 경제적 손실, 심지어 인명 피해에 이를 수 있다.