헤더 바로가기 메뉴 바로가기 푸터 바로가기
데이터 사이언스

구글이 AI 윤리에 접근하는 방식

디지털
2020. 11. 23.
Oct20_28_-1136623583-1024x576

AI는 다양한 산업에서 완전히 새로운 기회를 창출해내며 기술 진보의 주요 원동력으로 자리 잡았습니다. 공학적 관점에서 봤을 때, AI는 그저 조금 더 진보한 데이터 엔지니어링 기법에 불과합니다. 좋은 AI 프로젝트는 자동차에 비유하자면 대부분 매끈한 레이싱카보다는 지저분한 픽업트럭에 가깝습니다. 생산 라인의 안전성을 5% 정도 개선하기도 하고, 영화를 조금 더 정확하게 추천할 수 있도록 하는, 묵묵하고 듬직하게 작동하는 그런 기술이죠.

하지만 다른 어떤 기술보다도 AI를 사용하는 기술자는 의도치 않은 악영향을 끼칠 위험이 아주, 아주 높습니다. AI에는 불공정한 편향성을 확대하고, 내재된 편향성을 훨씬 파괴적으로 만들 힘이 있기 때문이죠.

구글의 AI 기술자로서, 우리는 AI 기술이 개발되고 사용되는 방식이 앞으로 우리 사회에 얼마나 큰 영향을 미칠지 잘 알고 있습니다. 그렇기에 좋은 사용 지침을 만드는 것이 필수적입니다. 책임감 있게 기술을 개발하는 것과 혹시 모를 잠재적 편향성을 방지하는 것이 첫걸음입니다. 이 두 가지 모두 기술자들이 몇 걸음 더 멀리 내다봐야만 가능한 일입니다. “이 자동화 방식이 비용을 15% 절감할 수 있을까?”가 아니라 “이 변화가 우리가 일하는 도시와 시민들, 특히 취약 계층의 사람들에게 어떤 영향을 끼칠까?” 하는 질문을 해야 한다는 겁니다.

여기에는 오래된 방식의 접근이 필요합니다. 기계가 아닌 인간 데이터 과학자들이 데이터세트와 모델에 들어가는 변수가 어떻게 생성되는지 이해하는 것 말입니다. 여기에는 데이터에 반영된 집단뿐 아니라 데이터에 영향을 받는 집단과의 협업이 필수적입니다. 공동체 구성원이나 AI가 사용되는 복잡한 시스템을 이해하는 전문가들 말입니다.

잘못된 인과관계 분석은 불공정한 편향성을 낳는다

첨단 AI 기술에서 공정성을 확보하겠다는 목표를 어떻게 하면 구체화할 수 있을까요? AI는 종종 우리가 예상하지 못한 방식으로 작동하기도 하는데 말입니다. 가장 먼저, 컴퓨터 과학자들이 AI가 개발되고 사용되는 맥락을 보다 잘 이해해기 위해 노력해야 합니다.

불공정한 편향성을 식별하고 측정하는 기법이 많이 발전하기는 했지만 아직도 인과관계에 대한 잘못된 분석은 소수자들에게 악영향을 끼칠 수 있습니다. 인과관계에 대한 잘못된 분석이란 무엇일까요? 예를 들어, 중세시대에는 병에 걸린 사람들에게는 머릿니가 적다는 것을 보고 머릿니가 사람에게 이롭다고 생각했습니다. 실제로는 머릿니가 열이 나는 사람들을 피하는 것이었는데 말입니다.

이와 같이 상관관계를 인과관계로 착각하는 실수는 의료 제도나 형사 제도와 같은 중요한 영역에서 엄청난 피해를 초래할 수 있습니다. AI 시스템 개발자들은 대부분 사회과학을 공부한 경험이 적고, 자신들의 기술이 해결하고자 하는 문제의 바탕에 깔린 사회구조를 이해하지 못하는 경우가 많습니다. 지나치게 단순하거나 부정확하게 인과관계를 분석한 채로 중요한 사회적 요소가 배제된 AI 시스템을 개발하고, 이로 인해 의도치 않게 피해를 초래한다는 겁니다.

아티클을 끝까지 보시려면
유료 멤버십에 가입하세요.
첫 달은 무료입니다!

(03187) 서울시 종로구 청계천로 1 동아일보사빌딩 9층 (주)동아일보사
대표자: 김재호 | 등록번호: 종로라00434 | 등록일자: 2014.01.16 | 사업자 등록번호: 102-81-03525
(03737) 서울시 서대문구 충정로 29 동아일보사빌딩 8층 (주)디유넷(온라인비즈니스)
대표이사: 김승환, 김평국 | 통신판매신고번호: 제 서대문 1,096호 | 사업자 등록번호: 110-81-47558