헤더 바로가기 메뉴 바로가기 푸터 바로가기
위기관리

생성형 AI 리스크, 어떻게 관리할까?

디지털
2023. 8. 4.
Jun23_06_1340175974

기업 리더, 학계, 정책 입안자 등 수많은 사람이 학습과 업무 방식 등을 혁신할 수 있는 잠재력을 지닌 생성형 AI 기술을 어떻게 활용할지 고민하고 있다. 비즈니스 환경에서 생성형 AI는 기업이 고객과 상호작용하는 방식을 혁신하고 기업의 성장을 이끌어 낼 수 있다. 새로운 연구 결과에 따르면 기업의 IT 리더 중 67%가 향후 18개월 내 생성형 AI를 비즈니스에 도입할 계획이라고 답했고, 그중 3분의 1은 이를 최우선 과제로 꼽았다. 기업들은 영업, 고객 서비스, 마케팅, 상거래, IT, 법무, HR 등 비즈니스의 모든 부문에 생성형 AI가 어떤 영향을 미칠 수 있는지 살펴보고 있다.

그러나 IT 리더는 직원들이 이런 기술을 사용할 때 무엇보다도 기술을 신뢰할 수 있어야 하고, 데이터 보안을 유지해야 한다. 시니어 IT 리더의 79%는 이런 기술이 보안 위험을 초래할 수 있다고 우려했으며, 73%는 AI에 의해 편향된 결과가 나올 가능성을 우려했다. 조직은 이 기술을 윤리적이고 투명하며 책임감 있게 사용해야 할 필요성을 인식해야 한다.

기업이 비즈니스에 생성형 AI 기술을 사용하는 것은 개인이 사적인 용도로 챗GPT를 사용하는 것과는 다르다. 생성형 AI 챗봇이 잘못된 요리법을 알려줘서 생길 수 있는 위험은 현장 서비스 작업자에게 잘못된 중장비 수리에 대한 지침을 제공할 때보다 훨씬 낮다. 기업은 생성형 AI를 사용하더라도 산업 관련 규정을 준수해야 한다. 예를 들어 헬스케어 기업이 비즈니스에서 다양한 방식으로 생성형 AI를 활용할 수 있지만 그 효용성을 따지기 전에 생명 윤리와 같은 기본적인 윤리는 반드시 지켜야 하는 것이다. 또 생성된 콘텐츠가 부정확하거나 불쾌감을 줄 경우 기업의 법적, 재정적, 윤리적 문제가 발생할 수 있는 지뢰밭이 될 수 있다. 기업이 명확한 윤리적 지침에 따라 설계하고 배포하지 않으면 생성형 AI는 의도하지 않은 결과를 초래하고 실제로 해를 끼칠 수 있다.

조직은 생성형 AI를 사용하는 방법에 대한 명확하고 실행 가능한 프레임워크를 구축해야 한다. 또 생성형 AI가 영업, 마케팅, 커머스, 서비스, IT 업무에 어떤 영향을 미칠지를 따져보고, 비즈니스와 생성형 AI의 목표를 일치시킬 수 있어야 한다.

2019년 우리는 윤리적 AI 도구의 개발을 유도하기 위해 투명성, 공정성, 책임, 신뢰 등을 AI 원칙으로 발표했다. 이 원칙은 AI에 투자하는 모든 조직에 적용될 수 있지만, AI 기술이 지금과 같이 발전하고 다양한 비즈니스 적용 사례가 생겨난 지금은 보다 성숙한 원칙이 필요하다. 성숙한 윤리적 AI는 제품 관리, 데이터 과학, 엔지니어링, 개인정보 보호, 법률, 사용자 연구, 디자인, 접근성과 같은 분야를 통합해 책임감 있는 제품을 개발하고, 이를 통해 AI의 잠재적 피해를 완화하고 사회적 이점을 극대화한다.

생성형 AI가 주류로 부상하고 접근성이 높아지면서 이 기술이 초래할 수 있는 위험에 대한 구체적인 가이드라인이 필요하게 됐다. 이 가이드라인은 기존 원칙을 대체하는 것이 아닌 기업이 이 새로운 기술을 사용하는 제품과 서비스를 개발할 때 원칙을 어떻게 운영하고 실천할 수 있는지에 대한 안내자 역할을 할 것이다.

아티클을 끝까지 보시려면
유료 멤버십에 가입하세요.
첫 달은 무료입니다!

최신 매거진

(03187) 서울시 종로구 청계천로 1 동아일보사빌딩 (주)동아일보사
대표자: 김재호 | 등록번호: 종로라00434 | 등록일자: 2014.01.16 | 사업자 등록번호: 102-81-03525
(03737) 서울시 서대문구 충정로 29 동아일보사빌딩 15층 (주)동아미디어엔(온라인비즈니스)
대표이사: 김승환 | 통신판매신고번호: 제 서대문 1,096호 | 사업자 등록번호: 110-81-47558