[英 AI혁신] ⑥기업들 인공지능 윤리규율부터 준비해야"

입력 2019.11.23 06:00

"인공지능(AI)의 부적절한 의사 결정을 막기 위해선 다양성을 구축해야 합니다. 다양한 국적·인종·성별의 사람들이 인공지능을 설계·디자인할 때부터 참여해 인공지능의 공정성을 확보하는 게 핵심입니다."

사라 렌치 아바네이드 데이터·AI·산업 솔루션 담당 이사는 지난 6일 영국 런던 국제통상부(DIT)에서 조선일보 디지털편집국과 만나 "인공지능 개발 때부터 편향적이지 않은 데이터와 참여자들이 필요하다"며 "인공지능이 잘못된 데이터를 학습하게 두면 안 된다"고 강조했다.

인공지능은 최근 성차별·인종차별 문제로 우려를 낳았다. 아마존은 지난해 초 인공지능 채용 프로그램을 폐지했다. 인공지능이 기존 채용 데이터에 맞춰 여성 지원자의 점수를 대폭 깎았기 때문이다. 앞선 2016년에는 마이크로소프트의 채팅봇 테이가 인종차별 발언을 해 하루도 안돼 운영을 중단하는 사례도 있었다.

사라 렌치 이사는 "신뢰할 수 있는 데이터와 투명한 알고리즘을 사용하는 것이 중요하다"고 했다. 신경망(블랙박스) 알고리즘은 입출력만 보이고 내부에서 어떤 일이 벌어지는지 모르기 때문에 편견을 강화하고, 차별과 불평등을 확산시킬 수 있다는 설명이다.

그는 "자료의 질이 나쁘면 인공지능도 불공정한 결과만 내놓을 수밖에 없다"며 "기업들은 ‘인공지능 윤리 프레임워크’부터 갖춰야 한다"고 강조했다. 그가 몸담고 있는 IT컨설팅회사 아바네이드는 디지털 윤리 프레임 워크를 시행하고 있다.

아바네이드의 디지털 윤리 프레임 워크에는 △AI는 공정성·포용성을 가지고 차별하면 안된다 △신뢰할 수 있는 시스템을 갖춰야 한다 △ 디지털 윤리가 발전하면 AI도 진화해야 한다 △인간은 AI가 내놓은 결과에 책임을 져야 한다 등의 내용이 담겨 있다.

인공지능(AI)이 우리 생활 곳곳에 급속히 확산되면서 인공지능이 미칠 악영향에 대한 우려도 높아지고 있다. 사진은 사람과 유사한 인공지능 로봇이 등장하면서 일어나는 혼란을 다룬 영화‘엑스 마키나’의 한 장면. /유니버설 픽처스
인공지능(AI)이 우리 생활 곳곳에 급속히 확산되면서 인공지능이 미칠 악영향에 대한 우려도 높아지고 있다. 사진은 사람과 유사한 인공지능 로봇이 등장하면서 일어나는 혼란을 다룬 영화‘엑스 마키나’의 한 장면. /유니버설 픽처스
사라 렌치 이사는 인공지능의 발전에는 선한 의도가 무엇보다 중요하다고 주장했다. 그는 "인공지능, 머신러닝은 사실상 통계, 수학 기반"이라며 "인공지능이 인간을 지배하게 될 날을 걱정하기보다, 삶을 개선할 수 있는 ‘인간중심 AI’를 만드는 데 힘써야 한다"고 덧붙였다.

내가 본 뉴스 맨 위로

내가 본 뉴스 닫기