헤더 바로가기 메뉴 바로가기 푸터 바로가기
데이터 사이언스

AI는 공정하지 않다

디지털
2020. 11. 13.
Oct20_20_1219846824-1024x576 (1)

영국의 대입 시험 A레벨을 주관하는 영국 시험감독청(Ofqual)은 최근 스캔들에 휘말리고 말았습니다. 코로나19로 인해 대면 시험을 실시할 수 없게 되자 영국 시험감독청은 학생들이 수학했던 학교들의 과거 성적에 일부 바탕을 둔 알고리즘을 디자인해 활용했죠. 이미 불리한 상황에 놓였던 학생들은 인공적으로 하향 조정된 점수에 또다시 불이익을 받고, 그동안의 노력이 무시되면서 자신들의 미래가 앞이 보이지 않는 혼란 속으로 내던져지는 것을 보자 즉각 들고 일어났습니다.

이는 일회성으로 끝날 사건이 절대 아닙니다. 세계적으로 가장 완성도 있는 기술을 보유한 회사들도 같은 문제에 직면하고 있으니까요. 2018년 아마존의 채용 알고리즘은 ‘여성’이라는 단어가 들어가 있는 지원서에 감점을 준다는 지적을 받았습니다. 더 최근의 일로, 애플의 신용카드 알고리즘은 여성에 대한 더욱 심한 차별을 드러냈습니다. 애플을 설립한 스티브 워즈니악은 아내와 모든 자산과 계좌를 공유하고 있는데도 아내의 신용한도가 그보다 10배나 낮았습니다.

이런 일들이 불공정하다는 것은 확실합니다. 하지만 그에 못지않게 중요한 것은 이러한 편향성이 효율성과 생산성에도 해를 준다는 것이죠. 가장 우수한 학생들을, 가장 우수한 학교에 배치하는 데 가치를 둔다고 할 때, 영국 시험감독청의 알고리즘에 내재된 편향성은 해당 목적을 해친 것입니다. 마찬가지로, 편향된 직원 채용 알고리즘은 회사의 가장 우수한 인재를 사로잡을 수 있는 역량을 갉아먹고 편향된 신용점수 평가 알고리즘은 정확한 신용평가를 방해하죠.

이렇게 편향성으로 인해 치르는 대가가 상당한 것만큼 편향성을 없애서 얻는 이익도 상당할 수 있습니다. 스탠퍼드대의 한 계량경제 연구에 의하면 “1960년과 2010년 사이 미국 국내총생산의 최소 25%가 직장에서의 성별 및 인종적 균형 확대에 기인하며, 이 수치는 40%까지도 올라갈 수 있다”고 합니다.

편향성은 어디에서 오는가

AI의 수익 창출 기회를 확대하려면, 우리는 일단 AI의 편향성이 어디서 오는지를 알아야 합니다. 사람들은 흔히 기술은 가치중립적이다라고 짐작하곤 하지만 이는 사실과 한참 동떨어진 말이죠. 기계학습 알고리즘을 만드는 이는 편향성이 없을 수가 없는 사람들입니다. 알고리즘은 절대로 완전무결하게 ‘객관적’이지 않습니다. 오히려 이들은 이들을 창조한 사람들의 세계관과 입력받은 데이터를 반영하죠.

편향된 인간의 판단은 두 가지 다른 방식으로 AI 시스템에 악영향을 줄 수 있습니다. 첫 번째는 시스템의 학습 대상인 데이터 내의 편향성입니다. 여러분은 어떤 식으로 이러한 일이 벌어지는지 직접 확인해 볼 수도 있습니다. 구글에 한 번은 ‘전문직 헤어스타일’, 그다음에는 ‘비전문직 헤어스타일’로 이미지 검색을 해 보세요. ‘전문직 헤어스타일’의 결과는 대부분 백인 남성을 보여주는 반면 ‘비전문직 헤어스타일’은 훨씬 더 다양한 성별과 인종을 보여줍니다.(이 문제는 원래 2016년에 트위터 사용자들이 제기한 것입니다.)

아티클을 끝까지 보시려면
유료 멤버십에 가입하세요.
첫 달은 무료입니다!

(03187) 서울시 종로구 청계천로 1 동아일보사빌딩 9층 (주)동아일보사
대표자: 김재호 | 등록번호: 종로라00434 | 등록일자: 2014.01.16 | 사업자 등록번호: 102-81-03525
(03737) 서울시 서대문구 충정로 29 동아일보사빌딩 8층 (주)디유넷(온라인비즈니스)
대표이사: 김승환, 김평국 | 통신판매신고번호: 제 서대문 1,096호 | 사업자 등록번호: 110-81-47558