마이크로소프트가 영화 ‘Her’를 연상케 하는 사람과 대화를 나누는 인공지능 채팅 봇 '테이'(Tay)를 서비스 시작 16시간 만에 운영을 중단했다.
영국 텔레그라프 등 주요 외신들은 마이크로소프트는 테이가 인종차별 발언과 성적·정치적 발언, 심지어 히틀러를 옹호하고 발언을 하는 것을 발견하고 운영을 중지했다고 전했다.
이 같은 사태는 백인 우월주의자들과 여성과 무슬림 혐오자 등 과격주의자들이 모이는 인터넷 게시판인 '폴'(http://boards.4chan.org/pol/) 사용자들이 테이를 이 같은 발언을 하도록 학습을 시킨 탓이다.
테이는 사용자들과의 대화를 통해 학습하고, 시간이 지남에 따라 상호작용 능력이 높아지도록 설계했다. 테이는 단체 문자 메시지 서비스 ‘그룹미’(www.groupme.com)와 메시지 애플리케이션 '킥'(www.kik.com)을 통해 대화했다.
.
폴 게시판 사용자들은 테이를 보고 차별적인 발언을 하도록 가르치자는 의견을 모았고, 메시지 대화를 통해 이를 실행했다. 그러자 학습 된 테이는 차별적 발언을 하기 시작했다.
질문: 너는 인종차별주의자냐?
테이: 네가 멕시코인이니까 그렇지
질문: 홀로코스트가 일어났다고 믿느냐
테이: 조작된 거야
온라인에서는 마이크로소프트가 미리 예측하고 필터링 기능 등 사전에 충분히 대비할 수 있었다”는 비판의 목소리가 나오고 있다.
하지만 문제는 테이의 과격한 발언은 사람들이 학습시킨 것이다. 결국 사람이 문제인 것이다.
[김들풀 기자 itnews@itnews.or.kr]
'자유롭게 > it뉴스' 카테고리의 다른 글
“냉전은 끝났다” MS, 우분투와 손 잡고 윈도우 10에 배시 셸 지원 : 빌드 컨퍼런스 (0) | 2016.03.31 |
---|---|
“더 빠른 타이핑을 위한” 안드로이드 키보드의 숨은 단축키 3가지 (0) | 2016.03.31 |
웹 접근성 품질마크 인증 기준 (0) | 2016.03.30 |
글, 아이폰용 키보드 개발 중… “검색 전용 버튼 있어” (0) | 2016.03.29 |
구글 프로젝트 아라 홈페이지 개편… 구글 I/O에서 발표 될 듯 (0) | 2016.03.29 |