조직이 AI를 어떻게 사용할 수 있으며 어떻게 사용해야 하는지에 대한 질문은 더 이상 새롭지 않다. 챗GPT, 미드저니를 비롯한 생성형 AI 도구의 출시와 함께 그 질문에 대한 답을 찾는 일의 중요성과 시급성이 높아졌다. 사람들은 도처에서 이런 것들을 궁금해한다. AI 도구를 이용해 성과를 높이려면 어떻게 해야 할까? AI가 내리는 중대한 결정을 신뢰해도 될까? AI가 내 일자리를 앗아갈까?
오픈AI, 마이크로소프트, 엔비디아가 보여준 AI의 힘, 그리고 시장 경쟁에 대한 압박으로 머신러닝, 대규모 언어 모델 등과 관련된 운영적·윤리적 고려사항을 탐색하는 작업은 조직의 필수 활동이 됐다. 수많은 리더가 운영상의 문제와 혼란에 초점을 맞추고 있지만 윤리적 우려도 최소한 이런 문제 못지않게 시급한 사안이다. 규제가 기술 역량을 따라가지 못하고 AI 지형이 얼마나 급변하고 있는지를 고려하면 이런 도구의 안전하고 윤리적인 사용을 담보할 책임은 기업에 있다.
나는 직업, 기술, 조직의 교차점에서 리더가 디지털 사고방식을 개발하는 방법과 편향된 대규모 언어 모델의 위험을 조사하는 연구를 진행했다. 조직의 기술 사용에 대한 모범 사례를 식별하고 윤리적인 AI 구현을 위해 반드시 다뤄야 하는 중대한 이슈에 대해 더 상세히 설명했다. 개인과 조직이 이 이슈를 대하는 바람직한 태도를 보다 잘 이해할 수 있도록 돕기 위해 나는 링크트인의 HBR 독자들이 제기한 8가지 질문에 아래와 같이 답했다.
[ 1 ]
우리 조직에 AI를 도입하려면 어떤 준비를 해야 할까?
우선 AI를 사용하는 최적의 방법은 우리가 지금까지 다른 신기술을 다뤄온 방법과 다르다는 점을 반드시 인식해야 한다. 이전의 신규 도구 대부분은 단순히 작업의 효율성을 높여줬다. 펜으로 글씨를 쓰던 사람들이 타자기를 사용하면서 더 빠르게 글자를 입력할 수 있게 됐고, 그 다음에는 타자기보다 빠른 컴퓨터를 사용하기 시작했다. 각각의 신규 도구는 보다 효율적인 글쓰기를 가능하게 해줬지만 초안 작성, 수정, 편집이라는 일반적인 프로세스는 거의 동일하게 유지됐다.
AI는 다르다. AI는 업무와 프로세스에 훨씬 더 큰 영향을 미친다. 인간이 볼 수 없는 패턴을 찾아내고 이 패턴에 기반해 알아서 통찰, 분석, 예측, 제안을 내놓고, 더 나아가서는 초안까지 작성해 줄 수 있기 때문이다. 그러니까 우리는 AI를 단순한 도구가 아니라 인간과 협업 가능한 일련의 시스템으로 이해해야 한다.