[팩트체크] AI의 선택은 가치중립적?…전문가들 "환상일뿐"

연합뉴스 | 기사입력 2020/10/10 [11:35]

[팩트체크] AI의 선택은 가치중립적?…전문가들 "환상일뿐"

연합뉴스 | 입력 : 2020/10/10 [11:35]

송고시간2020-10-09 07:00

김수진 기자 

 

포털들 AI 알고리즘 논란…전문가들 "학습데이터·가중치 따라 편향될수있다"

美·英서도 AI 중립성 논란 사례 빈발…백악관보고서, AI 전문가 윤리 강조

 

 

▲ AI (인공지능) (PG)[장현경 제작] 일러스트  © 연합뉴스

 

(서울=연합뉴스) 김수진 기자·이율립 인턴기자 = 최근 네이버·카카오 등 대형 포털 업체의 알고리즘 기반 인공지능(AI) 서비스가 연일 공정성 시비에 휘말리고 있다.

네이버는 6일 자사에 유리한 방식으로 쇼핑·동영상 검색 알고리즘을 인위적으로 조작했다는 공정거래위원회 조사 결과에 따라 과징금 267억원을 부과받았고, 카카오는 택시 호출 애플리케이션 '카카오T'가 자사 직영 혹은 가맹사 택시를 우선 배차한다는 의혹을 받는다.

거대 포털들은 공정성 문제가 불거질 때면 'AI 알고리즘이 한 일'이라며 인간적인 가치판단의 개입 여지가 없다는 식의 반응을 보일 때가 많다. 지난달 카카오가 운영하는 다음의 뉴스 편집 관련 편향성에 항의한다며 윤영찬 더불어민주당 의원이 카카오 관계자를 국회로 불러들이려 한 일이 파문을 일으켰을 때 카카오가 "2015년부터 AI 알고리즘이 뉴스를 배치하고 있다"고 설명한 일도 있었다.

과연 대형 포털업체들이 항변하는 것처럼, AI가 알고리즘에 따라 내 놓는 결과물은 가치중립적일까?

◇ 전문가들 "AI 알고리즘 인간이 설계하기에 중립 불가능"

그러나 전문가들의 말을 종합하면, 현재 활용되고 있는 AI 알고리즘은 기술적으로 인간이 추구하는 가치나 편견에서 자유로울 수 없다.

인간이 AI 알고리즘을 설계하는 데다 AI의 학습을 위한 데이터 자체가 편향됐을 가능성도 배제할 수 없기 때문이다.

윤종영 국민대 소프트웨어융합대학원 교수는 8일 연합뉴스와의 통화에서 "인공지능이라고 하면 맹신이나 환상이 있다"며 "중립적이 될 수 있도록 노력을 해야하는 것이지 인공지능이기 때문에 중립적이라는 것은 기술적으로나 논리적으로 맞지 않는다"고 말했다.

윤 교수는 "일례로 어떤 직업에 적합한 사람을 찾기 위해 여러 이력서를 바탕으로 인공지능을 학습시킨다고 할 때, 이력서 데이터에 남성 이력서가 많았다면 의도치 않게 '이 일에는 남성이 적합하다'고 판단할 수 있다"고 설명했다.

한국인공지능윤리협회 전창배 이사장도 "현재 기술단계에 AI 알고리즘은 절대 중립적일 수 없다"며 "세상의 편향된 데이터를 토대로 학습할 수밖에 없을 뿐만 아니라 현재 AI 알고리즘을 만드는 것도 결국 인간이기 때문에 인간의 편향된 생각이 그대로 반영돼 AI도 편향될 수밖에 없다"고 말했다.

포털 다음을 창업한 이재웅 전 쏘카 대표 역시 지난 5일 자신의 페이스북을 통해 '알고리즘이 하는 일에 대해 모른다'고 하는 말은 "거짓"이라고 지적하는 글을 올렸다. 그는 "어떤 데이터를 가지고 (AI를) 학습시켰느냐에 따라 그것을 설계한 사람들의 의도가 드러난다"고 적었다.

◇ AI 적극 활용 美·英서 편향성 논란 빈번…윤리문제 연구·논의도 활발

실제로 AI 알고리즘 편향성 논란이 빚어진 사례는 전 세계적으로 매우 많다.

특히 이 분야 연구·개발 선두에 있는 미국이나 영국에서는 민간은 물론 공공 부문에서도 AI 알고리즘을 적극 활용하고 있는데, 사회 문제로 이어지는 경우가 적지 않았다.

최근에는 영국 정부가 알고리즘을 도입해 학생들의 입시 성적을 매겼다가 심각한 사태가 벌어졌다.

영국 정부는 신종 코로나바이러스 감염증(코로나19)으로 인해 중등교육자격검정시험(GCSE)과 영국의 대학수학능력시험이라 할 수 있는 'A 레벨(level)'을 예정대로 진행하기 어려워지자 각 학교 제출 자료와 학생들의 과거 성적을 토대로 알고리즘이 점수를 매기게 했다.

그러나 알고리즘 채점 결과 학생 40% 가량이 예상 등급보다 한 단계 이상 낮은 성적을 받았을 뿐 아니라 사립학교에 비해 공립학교 특히, 낙후된 지역 학생들이 예상보다 낮은 점수를 받아 공정성 논란이 일었다. 학생들은 반발하며 시위를 벌였고, 영국 정부는 결국 알고리즘이 아닌 학교에 성적 평가를 맡기기로 결정했다.

▲ 중등교육자격검정시험(GCSE) 결과를 들어보이는 영국 학생들[EPA=연합뉴스]  © 연합뉴스

 

미국에서는 전자상거래업체 아마존이 2014년부터 AI를 활용해 직원 채용을 자동화하는 프로그램을 개발했으나, 실험 결과 여성 지원자를 차별하는 경향이 나타나 폐기한 사실이 2018년 로이터통신 보도로 드러난 바 있다. 당시 AI 프로그램은 10여년간 회사에 제출된 이력서 패턴을 분석하도록 훈련됐는데, 이력서 자체가 남성 지원자로부터 제출된 게 대부분이었다. 즉, AI 프로그램에 '데이터 편향'이 반영된 것이다.

상황이 이렇다 보니 미국, 유럽 등에서는 AI 알고리즘 활용에 따른 공정성 문제에 대한 사회적 논의가 활발하게 진행되고 있다.

미국 백악관은 2016년 '인공지능의 미래를 위한 준비'라는 제목의 보고서를 펴내며 '정의, 공정성 및 책임(Justice, Fairness, and Accountability)'을 한 챕터로 중요하게 다뤘다. 보고서는 "AI 전문가들과 학생들에 대한 윤리 교육이 문제 해결의 핵심 부분"이라고 지적했다.

또한 미국 MIT대 미래연구소(Future of Life Institute), 영국 옥스퍼드대 전략적 AI 연구센터(Strategic Artificial Intelligence Research Centre) 등 해외 유수 AI 연구 기관들이 AI의 기술뿐 아니라 윤리 문제, 사회적인 영향에 대해 연구하고 있다.

◇"한국사회도 AI 공정성 논의 시작해야"

우리 사회에서도 AI 알고리즘의 공정성을 포함한 윤리 문제에 대해 적극적으로 논의를 시작해야 한다는 지적이 나온다.

송경재 경희대 공공거버넌스 연구소 연구교수는 "2016년 서울 한복판에서 인공지능이 인간을 이기는 사건(이세돌-알파고 대국)이 벌어지자 인공지능이 인간보다 뛰어나다는 환상이 심어진 것 같다"며 "AI 알고리즘이 제대로 작동하고 있는지 이제는 의심해보고 검증할 때가 됐다"고 말했다.

윤종영 교수도 "최근 (AI 알고리즘) 이슈가 생기는 것을 긍정적으로 보자면, 학계나 업계에서 편향성에 대해 더 생각하고 신경 쓰는 계기가 될 수 있다"고 말했다.

▲ 이세돌 vs 알파고 (CG)[연합뉴스TV 제공]  © 연합뉴스

 

전창배 이사장은 "외부에서 상시적으로 AI 알고리즘의 중립성, 투명성을 판단하고 검증할 수 있는 시스템을 갖춰야 한다"며 "기업 자발적인 노력으로는 한계가 있기 때문에 중립적인 기구에서 AI 알고리즘을 사전 또는 사후에 검증하고 가이드하는 역할을 해야 한다"고 말했다.

<<연합뉴스 팩트체크팀은 팩트체크 소재에 대한 독자들의 제안을 받고 있습니다. 이메일(gogogo@yna.co.kr)로 제안해 주시면 됩니다.>>

gogogo@yna.co.kr

  • 도배방지 이미지

광고
광고
광고