헤더 바로가기 메뉴 바로가기 푸터 바로가기
데이터 사이언스 & 운영관리

안전한 AI, 전통적 지배구조로 가능할까?

디지털
2024. 1. 26.
Dec23_07_108113107

챗GPT(ChatGPT) 개발사 오픈AIOpenAI의 이사회에서 일어난 전쟁과도 같은 사건은 AI 안전과 관련한 기업 거버넌스의 역할에 주목하게 만들었다. AI가 사회에 파괴적인 영향을 미칠 것이라는 데는 의심의 여지가 없으며 각국 정부는 AI의 사회적 비용을 통제하기 위한 규제 전략을 수립하기 시작했다.

AI는 민간 기업에서 개발돼 경영진이 운영하고, 이사회가 감독하고, 투자자들이 자금을 지원하고 있다. 다시 말해 우리 생애에서 가장 중요한 기술 혁신으로 꼽힐 가능성이 높은 AI는 현재 거버넌스, 즉 대부분 민간 기업에서 만든 권력 배분이나 갈등 관리 등에 관한 일련의 규칙에 따라 감독을 받는다.

AI 안전 연구가 오래된 거버넌스 문제에 빛을 밝힐 수 있을까? 그리고 거버넌스의 법과 경제학이 AI 안전이라는 새로운 문제의 틀을 짜는 데 도움이 될 수 있을까? 필자는 혼란스러웠던 오픈AI 사건을 통해 AI와 거버넌스에 대한 다섯 가지 교훈과 한 가지 심각한 경고를 확인했다.


1. 사회적 선을 보호하기 위해 전통적 지배구조에 의존해선 안 된다

아티클을 끝까지 보시려면
유료 멤버십에 가입하세요.
첫 달은 무료입니다!

최신 매거진

(03187) 서울시 종로구 청계천로 1 동아일보사빌딩 (주)동아일보사
대표자: 김재호 | 등록번호: 종로라00434 | 등록일자: 2014.01.16 | 사업자 등록번호: 102-81-03525
(03737) 서울시 서대문구 충정로 29 동아일보사빌딩 15층 (주)동아미디어엔(온라인비즈니스)
대표이사: 김승환 | 통신판매신고번호: 제 서대문 1,096호 | 사업자 등록번호: 110-81-47558