최근 몇 달 동안 전 세계 정부는 생성형 인공지능(AI)의 위험을 관리하기 위해 ‘레드팀(모의적군) 구성red teaming’이라는 솔루션에 집중하기 시작했다.
2023년 10월 말, 바이든 행정부는 AI에 관한 광범위한 행정명령을 선포했다. 가장 중요한 요건은 특정 고위험 생성형 AI 모델에 대한 ‘레드팀’을 구축하는 것이다. 레드팀은 ‘AI 시스템의 결함과 취약점을 찾기 위한 구조화된 테스트 노력’으로 정의할 수 있다. 이 행정명령은 정부가 수천 명의 해커를 초대해 공식적인 AI 레드팀 구성 이벤트를 주최한 지 몇 달 만에 발표됐다.
레드팀 구성에 대한 관심은 긍정적인 발전이다. 레드팀 구성은 생성형 AI의 위험을 발견하고 관리하는 효과적인 방법 중 하나다. 하지만 레드팀을 실제로 구현하는 데는 여러 가지 장벽이 존재한다. 예를 들어 레드팀의 구성 요소를 명확히 하고, 레드팀이 모델을 테스트하는 동안 수행할 작업을 표준화하며, 테스트가 끝난 후 결과를 체계화하고 배포하는 방법을 명시하는 것 등이다.
각 모델마다 취약점, 배포 환경이 다르기 때문에 레드팀 구성이 완전히 똑같을 순 없다. 이런 이유로 기초 모델을 개발하는 공급업체와 해당 모델을 미세하게 조정해 활용하는 기업 모두에 일관되고 투명한 레드팀을 구성하는 것이 생성형 AI 배포의 핵심 과제가 됐다.