안면인식 기술과 Black Lives Matter
  • 인쇄
  • |
  • 목록
  • |
  • 복사하기
  • 페이스북
  • 트위터
  • 밴드

외통수에 걸렸다. 안면인식 알고리즘의 요즘 처지가 그렇다. 흑인 여성 식별 오류로 유명세를 탔던 아마존의 안면인식 기술 레코그니션은 1년 판매 보류를 선언했고, IBM은 이 기술의 개발 중단을 공식화했다. MS도 유사한 조치를 취했다. ‘흑인 생명도 중요하다(Black Lives Matter)’ 운동의 여파다. 또 다른 기술 거인들이 어떤 선택을 할지 장담할 수 없지만, 이러한 분위기가 당분간 지속될 것은 분명해 보인다.

일러스트 김상민 기자

일러스트 김상민 기자

안면인식 인공지능(AI)이 흑인 여성을 제대로 인식·판별하지 못한다는 지적은 그간 숱하게 제기됐다. 이로 인해 다양한 차별이 발생할 수 있을 것이라는 우려도 끊이지 않았다. 하지만 기술 거인들은 ‘윤리적 AI’라는 상징적 슬로건 뒤에 숨어 이를 방치해왔다.

2019년 AI 연구자와 아마존 개발 책임자 간의 안면인식 알고리즘 인종편향 논쟁은 기술 대기업 아마존의 명성에 생채기를 내긴 했으나 사업 자체에 대한 재고로는 이어지지 않았다. 빈지노 교수와 같은 AI의 거물급 연구자가 아마존의 반대편에서 목소리를 높였음에도 변화는 크지 않았다. 아마존은 인종 인식편향이 수정되지 않은 채 경찰 등에 그들의 기술을 팔아왔다. 그 사이 흑인 여성들은 AI가 주도하는 면접에서, 신용평가에서, 보험과 채용에서 불공정한 평가를 받을 수밖에 없었다.

기본적으로 이러한 문제의 이면에는 현실세계의 굴절됨이 존재한다. 알고리즘 모델을 구축하기 위해 학습되는 이미지 데이터에 백인·남성이 더 많이 포함된 탓이다. 게다가 데이터를 누가 어떻게 수집하느냐에 따라 표집된 데이터의 구성적 다양성은 달라질 수밖에 없다. 이미 데이터 수집 자체에서 특정 인종에 유리한 모델이 구축될 수밖에 없는 현실세계의 한계는 알고리즘-모델을 거치며 굴절의 정도가 증폭된다. 이를 해결하기 위해 흑인 등 유색 시민이 다양한 데이터를 공급하게 되면 안면인식 알고리즘은 곧장 정교한 감시 시스템으로 돌변하게 된다. 이 알고리즘 모델이 클라우드 기반의 API로 판매될 경우, 정부 당국에 의한 감시 능력은 배가될 수밖에 없다. 이래도 문제, 저래도 문제다. 다시 강조하지만 안면인식 알고리즘은 ‘흑인의 생명도 중요하다’ 운동과 맞물려 외통수에 걸려버렸다.

문제는 앞으로다. 인공지능에 대한 환상은 여전히 높고, 그것이 초래할 차별에 대한 인식은 지금도 낮다. 혁신이라는 이름으로 AI 기술 경쟁이 격화되고 있지만, 그것이 불러올 사회적 문제는 충분히 조명되지 못하고 있다. 미국에선 ‘알고리즘 정의 리그(Algorithm Justice League)’라는 비판적 AI 연구자 그룹들이 AI의 내재적 차별과 편향 문제를 공격적으로 비판하고 있다. 적어도 영미권엔 이 같은 비판적 연구자 조직이라도 있지만, 국내엔 이러한 견제 세력조차 없는 형편이다.

얼마 전 국내에서는 AI 면접을 잘 보기 위한 팁이 한 언론을 통해 공개된 적이 있다. 밝은 조명 아래에서 밝은 표정으로 또박또박 목소리를 내면 더 높은 점수를 받을 수 있다는 내용이다. 이는 역으로 AI 알고리즘이 얼마나 기술적으로 취약한지를 드러내는 하나의 사례라고 볼 수 있을 것이다. 혁신 만능론 앞에, 기술 기업의 막대한 자금 지원 앞에 우리 공동체를 건강하게 유지하기 위한 깊은 견제의 목소리는 지금도 제자리를 못 찾고 있다. 그래서 더 걱정이다.

<이성규 전 메디아티 미디어테크 랩장>

IT 칼럼바로가기

이미지