18세 미만 이용자의 성적 이미지 자동 감지…블러 처리 도입
인스타그램 로고. [로이터] |
[헤럴드경제=김영철 기자] 인스타그램이 청소년을 성착취 사기로부터 보호하기 위한 새로운 기능을 도입할 예정이다.
인스타그램의 모기업 메타는 보도자료를 통해 비공개 메시지로 전송된 이미지나 동영상의 스크린샷을 찍거나 녹화하지 못하는 기능을 인스타그램에 도입할 예정이라고 지난 17일(현지시간) 미 워싱턴포스트(WP)가 전했다. 또 사기 행위를 감지하기 위해 신규 계정 여부 등의 특정 지표를 사용하며, 이를 통해 사기 계정이 청소년에게 팔로우 요청을 보낼 수 없게 된다.
인스타그램은 위치를 속이는 성착취 사기범의 특성을 고려해 대화 상대가 다른 국가에 있는 경우 청소년에게 경고하는 안전 알림을 시험 중이다. 의심스러운 계정이 피해자의 팔로잉 또는 팔로워 목록을 볼 수 없도록 차단하며, 이 계정이 대상의 게시물에 ‘좋아요’를 누른 계정 목록, 태그된 사진, 사진에 태그된 다른 사용자의 목록도 볼 수 없게 한다.
18세 미만 사용자의 성적인 이미지를 자동으로 감지하고 흐리게 처리하는 기능도 도입한다. 이외에도 사용자가 성추행이나 아동 안전 문제를 신고할 경우 미국의 위기 문자 라인과 채팅할 수 있는 옵션을 추가하며, 미국, 영국, 캐나다, 호주의 청소년을 대상으로 교육용 동영상을 상영한다.
메타의 글로벌 안전 책임자인 안티고네 데이비스는 “인스타그램에서 성차별이 점점 더 문제가 되고 있다”며 “사기꾼들이 피해자에게 사진을 요구한 뒤, 이를 노출한다고 위협으로 금전을 요구하고 있다”고 지적했다.
이번 발표는 메타가 온라인상에서 청소년 안전에 대한 비판을 받은 가운데 이뤄졌다.
앞서 미 연방수사국(FBI)은 성착취 사기가 최소 20% 증가했다고 보고했으며, 메타는 이를 단속하기 위해 야후 보이즈와 관련된 800개의 페이스북 그룹과 820개의 계정을 삭제했다고 밝혔다. 이어 나이지리아에 기반을 둔 인스타그램 계정 6만3000개를 삭제한 것으로 알려졌다.
메타는 아동 안전 전문가들과 협력해 지속적으로 기능을 구축하고 있다고 밝혔다. 하지만 비평가들은 메타가 기능적인 개선을 발표하면서 정작 인스타그램 자체로 어린이와 청소년에게 유해한 영향을 끼치는 것에 대해선 주의를 분산시키고 있다고 비판했다.
yckim6452@heraldcorp.com