2020.07 > 어떤 날 인권 > AI도 차별을 하나요?

어떤 날 인권 [2020.07] AI도 차별을 하나요?

글 김민섭 (국가인권위원회 인권정책과)

 

인터넷 쇼핑몰의 한 고객이 몇 달 뒤 어떤 물건을 얼마만큼 주문할 것인지에 대한 예측을 할 수 있을까? 데이터 분석과 알고리즘을 통해 아무런 규칙이나 패턴이 없어 보이는 난제에서 법칙을 찾아 답을 내놓는 것, 인공지능. 우리 삶 가까이에 온 인공지능 기술은 인권에 직접적인 영향을 미치는 분야에서도 활용되기 시작했다.

 

 

8

 

인공지능의 출현

사람들은 미래를 알고 싶어 한다. 앞으로 일어날 일을 궁금해하는 것은 어찌 보면 인간의 당연한 욕망이다. 예전에는 주술 같은 비과학적인 방법으로 미래를 예측하려 했지만 오늘날은 수학과 과학, 통계학의 힘으로 어느 정도 정확한 예측이 가능하다. 기계가 미래를 정교하게 예측하고 때로는 인간과 유사하거나 더 뛰어난 지능을 갖추어 인간에게 도움을 주게 되었으니, 바로 인공지능(Artificial Intelligence, AI)의 등장이다.
인공지능의 개념은 다양하지만 대체적으로는 ‘인간의 지적 능력을 기계로 구현하는 기술’로 정의한다. 사실 인공지능이라는 단어가 등장한 것은 꽤 오래전의 일로, 1950년대로 거슬러 올라간다고 한다. 그러다가 2000년대 들어 ‘딥러닝’(Deep Learning)’ 즉 인공지능이 방대한 데이터를 스스로 학습하여 추론을 얻는 ‘학습 기반 인공지능’이 등장하여 세상을 놀라게 하고 있다. 대중적으로 널리 알려진 인공지능은 뭐니 뭐니 해도 2016년 우리나라의 이세돌 9단과 겨루어 승리한 바둑 인공지능 알파고(AlphaGo)다. 알파고는 인간이 입력한 바둑 법칙에 따라 바둑을 두는 것이 아니라 기존 바둑기보를 학습하거나 심지어는 자기 자신과의 대국을 통해 실력을 향상시킨다. 사실 알파고는 여러 가지 버전이 있는데, 최신 버전인 ‘알파고 제로’는 이세돌 9단과 겨루었던 ‘알파고 리’와 싸워 100전 100승을 거두었다고 하니 그 기술의 발전상이 실로 놀라울 뿐이다. 인공지능은 이제 스마트폰에 장착된 음성인식비서, 인터넷 쇼핑몰의 개인 맞춤형 정보 추천 등 우리 일상에서도 폭넓게 접할 수 있게 되었다.

 

인공지능에 나타난 인권 문제

최근 인공지능이 활용되는 영역을 보면 특이한 점이 있다. 기업의 신입직원 면접이나 심지어 범죄자의 재범가능성 판단처럼 사람의 삶과 인권에 직접 영향을 미치는 분야에 인공지능이 활용되기 시작한 것이다. 국내 대기업들이 인공지능 면접을 도입한다는 것은 이미 널리 알려져 있으며, 미국 일부 주에서는 범죄자의 개인적 배경이나 기존 전과를 분석하여 재범가능성을 판단하고 형사재판에 반영하는 콤파스(COMPAS) 시스템을 활용 중이다.
사실 이러한 사례가 나타나게 된 가장 큰 배경은 인간이 가진 편향성이다. 인간의 판단이나 의사결정은 객관적이지 않다. 사람들은 종종 기존의 친분관계나 고정관념 같은 다양한 요인에 의해 공평하지 않은 결론을 내리곤 한다. 심지어 최근 밝혀진 바에 따르면 인간은 자기 스스로도 잘 모르는 무의식적 요인에 좌우되어 판단을 내리는 경우도 많다고 한다. 이를 인지편향(cognitive bias)이라 부른다. 외국 연구 사례 중 하나를 소개하면 법관들이 가석방 심사를 할 때 법리에 따라 공정한 판단을 내리는 게 아니라 맛있는 간식을 먹은 직후에 허가 비율이 높아지고 공복일 때에는 그 반대였다고 한다. 이러한 이유에서 인간의 편견을 극복하고 데이터와 알고리즘에 기반하여 객관적이고 정확한 판단을 내리는 인공지능을 널리 활용해야 한다는 목소리가 높아지고 있다.
그런데 인공지능조차도 인간과 유사한 편향이나 오류, 차별적 판단을 내린다는 주장이 최근 제기되고 있다. 그 원인으로는 인공지능 시스템을 개발할 때 개발자의 이념이나 사상이 암묵적으로 반영되는 점, 그리고 인공지능이 학습하는 데이터에 사회적으로 누적된 편견이나 차별적 요소가 이미 들어있고 인공지능이 그러한 편견을 그대로 학습한다는 점이 지적된다.
대표적 사례가 미국의 전자상거래 기업 아마존(Amazon)의 인공지능 지원자 이력서 검증 시스템이다. 시범 운영을 해보니 여성 지원자들에게 더 많은 감점을 주는 방식으로 여성을 차별했는데, 알고 보니 시스템이 학습한 지원자 이력서에 남성 지원자 정보가 압도적으로 많았다는 식의 차별적 요인이 내재되어 있었다. 아마존은 이 시스템의 활용을 중단했다.
인공지능이 가지는 문제점은 또 있다. 앞서 거론한 알파고는 인간 바둑 최고수를 상대로 기묘한 수를 두어 승리를 거뒀지만 정작 왜 그렇게 바둑을 두었는지 인간에게 설명할 수는 없었다. 사람이 자신의 무의식적 행동을 나중에 논리적으로 설명하기 어려운 것과 같다. 학습기반 딥러닝 인공지능은 인간의 인지범위를 넘어서는 뛰어난 판단을 내릴 수 있으나 정작 어떠한 이유와 논리에서 그러한 판단을 내렸는지 알기 어렵다는 모순을 지닌다. 이를 인공지능의 불투명성 혹은 ‘블랙박스 이슈’라고 부른다. 게임에 이기는 것이 목적이라면 큰 문제는 되지 않을 것이다. 그러나 인공지능이 인간의 입사면접이나 형사재판에 개입하여 판단을 내린다면, 왜 그러한 판단을 내렸는지를 인간에게 설명할 수 있어야 한다. ‘설명 가능한 인공지능’이 필요하다는 주장이 나오는 이유다.

 

인공지능과 인권 기준

인공지능 활용으로 인한 인권침해 문제가 나타날 수도 있다는 지적에 따라, 인공지능에 대해서도 인권 기준이 필요하다는 주장도 제기된다. 물론 인공지능에 의한 인권침해 방지를 명목으로 섣부른 기준과 규제를 적용하면 과잉대응이 된다는 우려도 있으나, 정반대로 인공지능으로 인한 위험이 닥치기 전에 선제적으로 인권과 윤리 문제에 적극 대처해야 한다는 주장 또한 힘을 얻고 있다.
주요한 국제기구와 국가들은 인공지능 개발과 활용에 있어 인권 존중과 보호 기준을 마련해야 한다는 데 지지를 표한다. 유엔 의사와 표현의 자유 특별보고관 데이비드 케이(David Kaye)는 2018년 국가와 기업은 인공지능 기술 사용으로 인해 인권에 부정적 영향이 발생하지 않도록 할 의무가 있다는 내용의 보고서를 발표했다. 유럽연합(EU), 경제협력개발기구(OECD), 주요 20개국(G20) 같은 국제기구들도 앞 다투어 인공지능과 인권 및 윤리에 대한 기준을 발표했는데, 크게 ① 인공지능의 개발과 활용에 있어 인권과 인간 존엄성에 대한 존중을 최우선적인 가치로 할 것 ② 인간의 다양성을 존중하고 인공지능으로 인해 차별을 조장하거나 지속하지 말 것 ③ 인공지능의 판단이나 결과에 대해 인간이 이해하고 설명을 받을 수 있어야 하고(투명성 혹은 설명가능성), 인공지능의 판단이나 결정에 대해 책임을 질 수 있는 주체와 절차를 명확히 할 것(책임성) ④ 인공지능은 대량의 데이터, 특히 개인정보 활용과 학습에 기반하므로 그 과정에서 인간의 프라이버시와 개인정보 침해가 발생하지 않도록 할 것 등의 내용을 담고 있다.
지난 2019년 11월 20대 국회에서 「인공지능산업 진흥에 관한 법률안」이 발의됐다. 이 법안은 인공지능 산업의 경쟁력 제고와 지원 조치들을 담고 있지만 인공지능에서의 인권 보호를 위한 내용은 포함하고 있지 않다. 허나 앞서 살펴본 것처럼 인공지능과 인권 문제는 그 시스템을 개발하고 데이터를 학습하는 단계에서부터 체계적으로 대응할 필요가 있으므로, 국가인권위원회(이하 인권위)는 이 법률안에 인공지능의 설계, 개발, 활용 단계에 있어서의 인권 보호 규정이 포함될 필요가 있다고 판단했다. 이에 인권위는 인공지능에 대한 국제적 논의들을 적극 반영해 2020년 4월 2일 상임위원회를 통해 「인공지능산업 진흥에 관한 법률안」에 인권 기준을 보완할 필요가 있다는 의견을 표명했다. 이 법안은 20대 국회 회기 종료와 더불어 폐기되긴 했으나 새롭게 출범한 21대 국회에서도 인공지능 활용에 대한 많은 논의가 이루어질 것으로 예상되는바, 그 과정에서 인권 존중이라는 대전제가 늘 최우선으로 고려될 수 있기를 희망하여 본다.

 

 

김민섭 님은 국가인권위원회 인권정책과에서 일하고 있습니다.

 

이전 목록 다음 목록

다른호 보기