문제점 기업이 제품, 프로세스 및 의사결정에 AI를 점점 더 많이 도입하면서 디지털 위험에 대한 논의의 초점은 소프트웨어가 데이터로 무엇을 하는가로 전환되고 있다.
이것이 왜 문제인가? 잘못 적용되고 규제되지 않은 AI는 데이터의 편향을 증폭시킬 수 있기 때문에 불공정한 결과를 초래할 수 있다. 알고리즘은 더 많은 데이터가 들어올 때마다 바뀌고 적응하기 때문에 복잡해지고 쉽게 설명하기 어렵다.
어떻게 해결하는가? 비즈니스 리더는 여러 요소를 명시적으로 검토해야 한다. 공평한 결정을 내리려면 불공정한 결과의 영향, 의사결정의 범위, 운영 복잡성, 조직의 거버넌스 역량을 평가해야 한다. 투명성에 대한 기준을 설정할 때 요구되는 설명의 수준과 관련된 트레이드오프를 살펴봐야 한다. AI의 진화 가능성을 제어할 때 위험, 복잡성, AI와 인간 간 상호작용을 고려해야 한다.
최근 10년 동안 디지털 기술에 대한 대중의 우려는 대부분 개인 데이터의 남용 가능성에 초점이 맞춰져 왔다. 사람들은 기업이 온라인에서 자신의 이동 경로를 추적하고 신용카드 번호나 주소와 같이 중요한 정보를 수집하는 방식에 대해 불편함을 느꼈다. 검색 결과에 따라 맞춤형 웹 광고가 제시된다는 것에 소름 끼쳐 했고 신분 도용과 사기에 대해 걱정했다.
이런 우려 덕분에 미국과 유럽에서는 인터넷 사용자가 개인 데이터와 이미지를 어느 정도 통제할 수 있도록 보장하는 조치가 통과됐다. 2018년 EU의 개인정보보호규정(GDPR)이 여기에 해당한다. 물론 이런 조치로 기업의 개인 데이터 사용에 대한 논란이 완전히 끝난 것은 아니다. 일각에서는 기업의 개인 데이터 사용 억제로 유럽과 미국의 경제 성과가 그런 규제가 덜한 국가에 비해 저해될까 우려한다. 특히 중국에서는 모든 종류의 개인 정보에 대한 접근이 가능하고 규제가 거의 없어 많은 디지털 대기업들이 부상하고 있다.(그러나 알리바바에 막대한 벌금을 부과한 것에서 알 수 있듯 최근 중국 정부는 디지털 기업의 자유를 제한하기 시작했다.) 다른 쪽에서는 엄격한 규제가 구글, 아마존과 같이 자본이 풍부한 미국 라이벌 기업에 비해 규모가 작은 유럽 기업들에 명백히 불리하게 작용한다는 점을 지적한다.
이제 논쟁은 새로운 국면에 접어들고 있다. 기업이 제품, 서비스, 프로세스 및 의사결정에 인공지능(AI)을 도입하기 시작하면서 소프트웨어에서 데이터가 어떻게 사용되는지, 특히 암을 진단하거나, 자동차를 운전하거나, 대출을 승인하는 것과 같은 복잡하고 진화하는 알고리즘에서 데이터가 어떻게 사용되는지에 대한 것으로 관심이 옮겨가고 있다. 이번에도 가장 발 빠르게 움직이고 있는 곳은 EU다.(2020년 EU백서 ‘On Artificial Intelligence—A European Approach to Excellence and Trust’ 및 AI 법률 프레임워크에 대한 2021년 제안을 통해서다.) EU는 소비자가 믿을 수 있는 AI 툴을 개발하는 과정에 규제가 필수적이라고 생각한다.
이런 일들이 기업에 의미하는 바는 무엇일까? 우리는 규제 프레임워크의 기저에 있는 핵심 원칙을 기반으로 한 AI 알고리즘 규제 방법과 AI 시스템 구현 방법을 연구해 왔으며 다양한 산업 분야의 기업이 AI 기반 이니셔티브를 시작하고 확대하도록 지원해왔다. 이 글에서는 우리의 연구와 다른 이들의 연구를 바탕으로 비즈니스 리더가 AI를 의사결정 및 프로세스에 통합하면서 고객들의 안전과 신뢰를 잃지 않고자 할 때 직면하는 세 가지 주요 문제를 살펴본다. 또한 전략적 위험 관리에 적용되는 개념을 부분적으로 활용해 경영진에게 도움이 되는 프레임워크를 제시한다.