정보인권연구소 등 주최 '알고리즘은 어떻게 민주주의를 왜곡할까' 토론회
"왜 유튜브가 나에게 이런 콘텐츠를 추천하는지 정보가 명확해져야 한다"
[미디어오늘 박재령 기자]
▲선거연수원에서 중국인 간첩 99명이 체포됐다는 음모론을 제기하는 유튜버. 본 사진은 기사 본문과 직접적인 관련은 없습니다. 사진=강대국코리아TV 갈무리
'디지털 공론장'에 대한 우려의 목소리가 높아지고 있다. 상호 비판과 검증 대신 같은 입장의 주장만 반복 노출되면서 정서적 양극화만 부추기고 있다는 분석이다. 이를 운영하는 플랫폼의 사회적 책무가 강조되지만 돈벌이가 우선시되는 시장 논리 앞에선 공허한 메시지가 되기 십상이다.
지난 26일 정보인권연구소·진보네트워크센터가 주최한 '알고리즘은 어떻게 민주주의를 왜곡할까' 토론회가 온라인으로 열렸다. 발제를 맡은 장여경 정보인권연구소 이사는 '디지털 공론장'의 예로 카카오톡 단체방, 소셜미디어, 디시인사이드 등의 커뮤니티를 꼽았다. 장 이사는 “이들이 점차 공식성을 띠고 있다. 일부의 하위문화로 공유되던 것들이 권위를 획득하고 커지는 모습”이라며 “의도적이든 의도적이지 않든 사실이라고 보기 힘든 허위정보들이 권위를 가지고 확산된다. 한국만의 문제는 아니다”라고 말했다.
부정선거 음모론 같은 경우 근거가 없다는 대법원 확정 판결이 나도 이를 믿는 비율이 미국과 한국 모두 30%를 넘나든다. 이러한 음모론이 확산되는 경로 역시 '디지털 공론장'이다. 장 이사는 “합리적으로 토론을 하기보다는 정서적인 결속감, 비슷한 입장의 사람들끼리 모여 자신의 신념을 강화하는 모습이 보인다”며 “결국 정치적 양극화로 이어진다는 것이 문제”라고 말했다.
▲ 소셜미디어는 정치적 양극화에 기여하는가. 2022년 퓨리서치센터 여론조사 갈무리. 클릭하시면 큰 화면으로 볼 수 있습니다.
2022년 미국 퓨리서치센터 조사에 따르면 한국인 응답자 77%가 소셜미디어가 정치적 양극화에 기여한다고 봤다. 미국 79%, 네덜란드 78%에 이은 세계 3위다. 정치적 양극화는 정서적 양극화로 이어지기 마련이다.
장 이사는 “페이스북에 웃긴다, 화난다 등의 정서적 이모티콘들이 있는데 자기랑 반대되는 정치적 의견일 때 정서적 반응이 커지고, 자기랑 같은 의견을 가진 집단에겐 정서적 표현이 자제된다는 분석이 나온다”며 “분노를 유발하거나 선정적인 콘텐츠의 트래픽이 늘어나는 식으로 알고리즘이 작동한다는 내부 고발(페이스북)도 2018년 나온 바 있다”고 말했다.
'디지털 공론장' 작동 방식을 설명하는 데엔 크게 세 가지 이론이 있다. △필터버블 △에코챔버(반향실 효과) △일반화 단계 생략 등이다. 장 이사는 “필터버블은 개인화된 알고리즘에 따라 콘텐츠를 필터링해서 자신의 신념에 부합하는 콘텐츠만 보게 된다는 이론”이라며 “에코챔버도 자신의 견해와 같은 동질적 집단을 통해 메아리처럼 같은 메시지를 듣게 된다는 것”이라고 말했다. 다만 에코챔버 효과의 경우 비알고리즘 환경에서도 이용자들이 같은 선택을 한다는 특징이 있다.
마지막 세 번째 이론을 “소셜미디어가 작동하는 방식이 개인의 사회 정체성을 형성한다”고 설명한 장 이사는 “나치즘이 횡행했던 시절을 보면 일반화 단계(자신의 판단이 정당한지 비판적으로 검증하는 단계)가 생략됐을 때 극단주의 이론이 기승을 부린다. 자신의 정치적 판단이 특정 집단에서 사회적 지위를 얻는 데 중요하다고 했을 때 사람이 극단적으로 가는 경향이 있다. 이것이 소셜미디어가 사람을 사회화하는 방식”이라고 말했다.
소셜미디어의 작동 방식이 민주주의를 해칠 우려가 있다면 플랫폼에게 사회적 책무를 요구하는 건 당연한 일이다. 알고리즘의 개인화를 완화하거나 알고리즘을 투명하게 공개하도록 하는 안이 거론된다. 팔로워 수 등 사회적 지위를 나타낼 수 있는 지표를 약화해 개인의 극단화를 방지하는 안도 있다.
장 이사는 “디지털 리터러시 교육을 강화하고 공론장을 좌지우지하는 플랫폼의 디지털 권력을 견제하자는 목소리가 높다”며 “여기서 중요한 것은 국가의 역할인데 표현의 자유 측면에서 국가의 개입이 조심스러운 얘기이긴 하지만 디지털 공론장의 차별 금지, 의견의 다원성을 보장하는 역할 등에 대해선 국가가 플랫폼에 개입해야 하지 않냐는 얘기들이 나오고 있다”고 말했다.
장 이사는 “왜 유튜브가 나에게 이런 콘텐츠를 추천하는지, 게시자는 누구고 광고주는 누구인지 정보가 명확해져야 한다. 건강한 공론장에 있어서 투명성은 전제 조건”이라며 “이용자가 플랫폼 환경을 이해하고 조건을 설정할 수 있어야 이 권력 비대칭 문제가 해소될 수 있다. 유럽에선 디지털서비스법(DSA)을 통해 알고리즘이나 서비스의 위험에 대한 영향 평가를 빅테크 기업에 요구하는 제도가 마련돼 있다”고 말했다.
Copyright © 미디어오늘. 무단전재 및 재배포 금지.