라이엇 게임즈가 <리그 오브 레전드>의 채팅을 자동으로 판별해 악성 유저를 처벌하는 시스템을 테스트하고 있다. 22일, 외신들은 라이엇게임즈가 해당 기능을 <리그 오브 레전드> 북미 서버에서 테스트하고 있다고 보도했다.
라이엇게임즈가 테스트하고 있는 기능은 채팅 로그를 자동으로 분석하는 시스템이다. 이런 채팅 분석은 악성 유저를 걸러내 처벌하고, 결과적으로 게임 내 욕설이나 인종 차별, 성 차별, 살해 위협 등 언어 폭력을 줄이기 위한 목적이다.
현재 테스트중인 채팅 자동 분석 시스템에서는 욕설 등 악성 채팅이 파악되면 게임이 종료된 뒤 15분 이내에 해당 플레이어에게 경고를 해 준다. 여기서 더 나아가 유저를 처벌하게 될 경우, 문제가 된 채팅 내용의 사본을 유저에게 보내준다. 여기서 정도가 심할 경우 해당 유저에게 2주 간 게임을 금지하는 조치부터 최대 영구 이용 정지까지 시키는 것도 가능하다.
라이엇게임즈는 채팅 로그 자동 분석 시스템을 북미에서 먼저 테스트한 뒤, 정상적으로 작동하는 것을 확인하면 모든 지역에 해당 시스템을 적용시킬 계획이다.
외신들은 이런 채팅 분석 시스템이 잘 작동할지, 그리고 인공지능이 유저의 채팅을 분석해 올바른 판단을 내릴 수 있을지에 대해 여러 논란이 있을 수 있다는 우려도 함께 보도하고 있다.