[미디어스=윤수현 기자] '유튜브 알고리즘의 극단적 콘텐츠 추천'은 뜨거운 감자다. "유튜브 알고리즘이 극우 콘텐츠를 제공해 이용자를 극단화에 빠져들게 한다"는 주장과 "유튜브 알고리즘이 이용자 극단화를 조장한다는 증거가 없다"는 반론이 대립한다. 하지만 유튜브 알고리즘을 통해 극단적 콘텐츠를 접하는 이용자가 있다는 건 사실이다. 이와 관련해 “이용자 리터러시를 함양이 핵심”이라는 제언이 나왔다.

한국언론진흥재단(연구자 이소은 언론재단 선임연구위원·최순욱 너비의깊이 이사)는 7일 <해외 미디어 동향-유튜브의 콘텐츠 극단화>를 발간했다. 언론재단은 유튜브 추천 알고리즘의 극단화 효과를 조사한 해외 연구 결과를 소개했다.

(사진=연합뉴스)

2019년 미국 청년 캘럽 케인은 유튜브 극우 콘텐츠에 빠져들게 됐던 자신의 경험을 소개했다. 케인은 2014년 유튜브에서 인종차별주의자 스테판 몰리뉴의 영상을 접했다. 그는 몰리뉴의 이야기에 공감했고, 몰리뉴의 영상을 추가로 접했다. 그러자 유튜브 추천 목록에 극우 성향의 추천 영상이 올라왔다. 케인은 “세뇌를 당하는 것 같았다”고 설명했다. 뉴욕타임즈, CNN, PBS 등 미국 언론은 케인의 사례를 소개했고 사회적 이슈가 됐다.

해외 연구자들은 유튜브 알고리즘이 이용자에게 특정한 관점을 급진적으로 주입한다고 지적했다. 유튜브 알고리즘이 시청 콘텐츠와 유사한 극단적 영상을 추천한다는 지적이다. 예컨대 인종 관련 영상을 보면 백인우월주의 주창 콘텐츠가 추천되는 것이다. 제이넵 투페키 노스캐롤라이나대학 교수는 “유튜브 추천 알고리즘은 인간의 욕구를 착취하는 연산방식”이라고 비판했다.

하지만 최근 “유튜브 알고리즘이 이용자를 극단적으로 몰고 간다는 근거는 없다”는 지적이 있다. 안나 자이트세프·마크 레드워치가 발표한 <알고리즘 극단주의 : 유튜브의 극단화 토끼굴에 대한 검토> 논문에 따르면 유튜브 알고리즘은 이용자의 극단화를 방지하고 있었다. 유튜브가 시청자에게 온화한 콘텐츠를 추천하고 있으며, 이용자를 극단적으로 만드는 건 사회의 극단화 때문이라는 지적이다.

언론재단 연구팀은 “유튜브 추천 알고리즘이 극단적 이용자를 만들어내는 범인인지는 여전히 오리무중이지만 자신도 모르게 우파로 빠져드는 이용자들이 존재한다는 게 중요하다”고 지적했다. 연구팀은 극단적 콘텐츠 방지를 위해 ▲리터러시 함양 ▲알고리즘을 통한 극단적 콘텐츠 식별 등을 대안으로 꼽았다.

연구팀은 ‘리터러시’를 극단주의에 대응할 수 있는 근본적인 방법이라고 소개했다. 연구팀은 “플랫폼 이용자 스스로 극단적 콘텐츠를 냉정하게 평가할 수 있는 능력을 길러야 한다”면서 “극단주의의 문제는 콘텐츠 자체보다 ‘수용’에 의해 초래된다. 극단주의의 문제점을 명확하게 인지하려는 이용자 개인의 노력과 학습이 가장 중요하다”고 강조했다.

연구팀은 “유튜브 알고리즘이 극단적 콘텐츠를 삭제해왔지만, 삭제가 극단적 콘텐츠에 대한 수요를 감소시키지는 않는다”면서 “사회 전체의 극단적 콘텐츠 수요를 감소시켜야 한다. 이용자 스스로의 리터러시 함양 노력이 중요하다”고 밝혔다.

연구팀은 “유럽 사회적기업 문샷CVE(Moonshot CVE)는 유튜브 자동 식별 프로그램 ‘리다이렉티드 메소드’를 개발했다”면서 “이 프로그램은 유튜브·페이스북 등에서 극단주의 관련 키워드를 검색한 이용자를 식별하고, 이들에게 상담을 유도한다”고 설명했다.

연구팀은 “(상담)광고나 상담 메시지로 극단적 주장에 빠진 사람들을 얼마나 감소시킬 수 있을 것인지는 미지수”라면서도 “극단적 주장에 관심을 두는 사람들과 그 집단의 존재를 사전에 파악해 정부나 기업에 대응 방안을 마련하게 해주는 것은 큰 장점”이라고 강조했다.

저작권자 © 미디어스 무단전재 및 재배포 금지