요약하자면..
한국=엄마 몰래 카메라..
먹방 한번 보면 연관 검색으로 수십개의 먹방이 자동으로 추천.. 돈벌려고 억지로 먹는거 까지 느껴질정도
미국=How to have 검색하니.. 바로 ㅅ in school 같은 단어가 연관검색어로 나옴.
극단적 영상을 추천하는 유튜브
2018년 3월 <뉴욕타임스>에는 흥미로운 칼럼이 실렸다. 미디어학자 제이넵 투펙치가 유튜브 추천 영상을 분석한 글이었다.
트럼프의 인용문을 확인하기 위해 영상을 보던 그는 이상한 점을 발견했다. 트럼프 영상을 보고 난 뒤 '나치 학살은 조작', '미국 총기사건은 허구' 등의 터무니없는 주장을 담은 비디오가 뜨기 시작하는 것이다. 그는 이 현상이 우익 성향의 비디오에 국한 된 것인지 확인해 보고 싶었다.
투펙치는 새로운 계정을 만든 뒤, 힐러리 클린턴과 버니 샌더스의 비디오를 거듭 시청했다. 그리고 어떤 영상물이 추천 목록에 뜨는지 기다려 보았다. 결과는 '그림자 정부' 따위의 또 다른 음모론 비디오였다.
흥미로운 점은, 어떤 비디오를 시청하든 비슷한 결과가 나온다는 사실이었다. '채식주의자'를 검색해서 영상을 감상하다 보면, 얼마 뒤 육식은 물론 가죽이나 실크 등의 동물성 재료까지 거부해야 한다는 극단적 영상물이 올라왔고, '조깅'을 검색하면 '초장거리 마라톤'이 추천 영상으로 떴다. 유튜브는 어떤 주제라도 사용자를 극단적 내용으로 안내하고 있었다.
이는 알고리즘이 설계된 방식 때문이다. 결함이나 부작용이 아니라, '본래의 목적'을 수행한 결과라는 이야기다. 사람들은 인공지능에 '객관성'이나 '중립'의 환상을 갖고 있지만, 컴퓨터 알고리즘은 설계자의 편견, 비이성, 탐욕을 고스란히 재현한다.
유튜브 로고
▲유튜브 로고ⓒ 유튜브
사악함과 탐욕
유튜브는 왜 검색한 비디오 이외에 다른 영상물을 보도록 추천할까? 당연히 더 많은 비디오를 보도록 만들기 위해서다. 그래야 추가광고 수익을 올릴 수 있기 때문이다. 그렇다면 알고리즘은 어떤 영상물을 추천할까?
유튜브는 10억 이상의 사용자를 거느리고 있으며, 이미 수년에 걸쳐 이들의 시청 패턴을 추적하고 분석한 데이터를 지니고 있다. 유튜브 알고리즘은 이렇게 종합된 데이터에 의거해, 극단적 내용을 담은 비디오가 시청시간이 높다는 결론을 내렸을 것이다.
그 결과가 나날이 깊어지는 의견의 양극화며, 이는 허위 정보의 양산과 민주주의의 위협으로 나타나고 있다. 의견 양극화가 유튜브에서만 나타나는 일은 아니지만, 이 비디오 사이트는 현재 텔레비전과 포털의 기능을 모두 흡수한 세계 최대의 매체로 부상하고 있으며, 그 영향력은 날로 커지고 있다.
물론 구글이 일부러 해롭거나 왜곡된 내용의 비디오를 추천하는 것은 아니다. 그저 '많이 볼' 영상을 제안할 뿐이다. 다시 말해 '돈을 많이 벌게 해 줄' 비디오를 제안하는 것이다. 이는 '사악해지지 말자'던 구글 초창기의 철학에 정면으로 위배된다.
아무리 못된 기업이라도 소비자를 해롭게 할 목적으로 운영되지는 않는다. 그저 이윤을 사회적 책임 위에 둘 뿐이다. '사악한 기업'은 '탐욕스럽고 무책임한 기업'의 동의어에 지나지 않는다.
구글은 사악해지기로 작정한 것일까? 다음 글에서 더 살펴보기로 하자.