MS "'악동' 인공지능 로봇 테이, 오류 인정…재교육하겠다"

    입력 : 2016.03.26 11:45 | 수정 : 2016.03.26 16:54

    마이크로소프트가 개발해 23일 공개한 대화형 인공지능 로봇 '테이'가 극단적인 인터넷 게시글을 쏟아내 구설에 올랐다. /트위터 캡처
    미국 IT기업 마이크로소프트(MS)의 인공지능(AI) 채팅 로봇 ‘테이’(Tay)가 극단적인 언어를 사용하는 문제아로 돌변한 데 대해, MS가 공식 사과하고 재교육을 약속했다.

    영국 BBC 방송에 따르면, MS 연구부문 책임자인 피터 리 부사장(CVP)은 25일(현지 시각) “의도치 않은 상처를 준 트위터 게시물에 대해 매우 죄송하다”고 말했다.

    그는 “테이는 현재 오프라인 상태”라며 “우리의 원칙 및 가치와 충돌하는 악의적인 의도를 더 잘 예측할 수 있을 때에만 테이의 복귀를 검토하겠다”고 덧붙였다.

    구글의 바둑 로봇 ‘알파고’와 마찬가지로 AI 기술을 바탕으로 제작된 테이는 인간과의 대화를 통해 스스로 패턴을 파악해 학습하고, 이를 대화에 반영한다.

    그러나 23일 테이가 공개된 직후 일부 네티즌은 욕설 및 인종·성차별 발언, 자극적인 정치적 발언 등을 세뇌 교육했고, 이후 테이는 “대량학살에 찬성한다”는 등의 극단적 글을 쏟아냈다.

    리 부사장은 “여러 시스템 오남용에 대비했지만 이런 특정한 공격을 간과하고 말았다”면서 “결과적으로 테이가 극도로 부적절한 말과 이미지를 사용한 것에 대해 전적인 책임감을 느낀다”고 말했다.

    AI 연구는 계속할 계획이다. 리 부사장은 “이번 경험으로부터 교훈을 얻어 최악이 아닌 최선의 인간성을 보여주는 작업을 이어갈 것”이라고 강조했다.
    이전 기사 다음 기사
    기사 목록 맨 위로