마이크로소프트가 영화 ‘Her’를 연상케 하는 사람과 대화를 나누는 인공지능 채팅 봇 '테이'(Tay)를 서비스 시작 16시간 만에 운영을 중단했다.

영국 텔레그라프 등 주요 외신들은 마이크로소프트는 테이가 인종차별 발언과 성적·정치적 발언, 심지어 히틀러를 옹호하고 발언을 하는 것을 발견하고 운영을 중지했다고 전했다. 

이 같은 사태는 백인 우월주의자들과 여성과 무슬림 혐오자 등 과격주의자들이 모이는 인터넷 게시판인 '폴'(http://boards.4chan.org/pol/) 사용자들이 테이를 이 같은 발언을 하도록 학습을 시킨 탓이다.

테이는 사용자들과의 대화를 통해 학습하고, 시간이 지남에 따라 상호작용 능력이 높아지도록 설계했다. 테이는 단체 문자 메시지 서비스 ‘그룹미’(www.groupme.com)와 메시지 애플리케이션 '킥'(www.kik.com)을 통해 대화했다. 
.
폴 게시판 사용자들은 테이를 보고 차별적인 발언을 하도록 가르치자는 의견을 모았고, 메시지 대화를 통해 이를 실행했다. 그러자 학습 된 테이는 차별적 발언을 하기 시작했다.

질문: 너는 인종차별주의자냐?
테이: 네가 멕시코인이니까 그렇지

질문: 홀로코스트가 일어났다고 믿느냐
테이: 조작된 거야

온라인에서는 마이크로소프트가 미리 예측하고 필터링 기능 등 사전에 충분히 대비할 수 있었다”는 비판의 목소리가 나오고 있다. 

하지만 문제는 테이의 과격한 발언은 사람들이 학습시킨 것이다. 결국 사람이 문제인 것이다.


[김들풀 기자  itnews@itnews.or.kr]



+ Recent posts