
현대 사회에서 유튜브는 단순한 영상 공유 플랫폼이 아니라 정보 소비의 중심이 되었다. 하루 수억 명의 사용자가 유튜브를 통해 정보를 접하고 있다.
이는 단순한 오락 콘텐츠를 넘어 정치, 경제, 사회문제를 다루는 핵심 미디어로 자리 잡았다. 그러나 유튜브의 알고리즘은 사용자의 관심사를 기반으로 맞춤형 콘텐츠를 제공하면서 필연적으로 편향된 시각을 강화하고 있다.
이러한 알고리즘적 편향성과 이를 악용하는 세력들이 맞물려 특정한 정치적, 사회적 담론을 주도하고 있으며 이는 궁극적으로 사회적 가스라이팅을 초래하는 원인이 되고 있다.
이번에는 유튜브의 알고리즘이 어떻게 편향적 시각을 강화하고 나아가 특정 세력의 사익 추구와 결합하여 사회적 가스라이팅을 유도하는지를 분석한다.
또한, 이러한 현상이 지속될 경우 사회적 극단화와 인간성의 붕괴로 이어질 가능성을 다각도로 검토하고 이를 예방하기 위한 미디어 리터러시의 중요성과 중립적 정보 소비 방법을 제안하고자 한다.
1. 유튜브 알고리즘과 편향성
1.1 유튜브 알고리즘의 구조와 작동 방식
유튜브의 추천 시스템은 인공지능(AI)과 기계 학습(machine learning) 알고리즘을 기반으로 작동한다. 사용자의 행동 데이터를 분석하여 최적의 영상을 추천하는 방식으로 운영된다. 이 시스템은 크게 다음과 같은 요소로 구성된다.
사용자 맞춤 추천(User Personalization)
사용자의 시청 기록, 좋아요, 댓글, 공유 패턴 등을 분석하여 관련성이 높은 콘텐츠를 추천한다.
결과적으로 사용자가 특정한 성향의 콘텐츠를 많이 소비할수록 해당 주제의 영상이 더욱 자주 추천되는 경향이 강화된다.
조회수 및 참여도(Engagement Metrics)
알고리즘은 사용자의 참여도가 높은(좋아요, 댓글, 공유가 많은) 영상을 우선으로 추천하는 경향이 있다.
이 때문에 극단적이거나 논란이 되는 콘텐츠가 더욱 확산하며 중립적인 정보는 비교적 낮은 노출도를 가지게 된다.
광고 및 수익 모델(Ad Revenue Model):
유튜브의 비즈니스 모델은 광고 수익에 기반을 두고 있으며 이는 플랫폼이 사용자들을 가능한 오랜 시간 머무르게 하는 방향으로 알고리즘을 설계하는 이유가 된다.
자극적인 콘텐츠일수록 사용자들의 체류 시간이 늘어나고 이는 결국 광고 수익 증가로 이어진다.

1.2 필터 버블과 확증 편향의 강화
유튜브의 알고리즘이 사용자 개인화에 집중하면서 사용자는 자신이 선호하는 콘텐츠를 반복적으로 소비하게 된다. 이 과정에서 필터 버블(Filter Bubble)과 확증 편향(Confirmation Bias)이 강화된다.
필터 버블은 사용자가 접하는 정보가 특정한 범주 안에서 제한되며, 반대 의견이나 새로운 관점을 접할 기회가 줄어든다는 것을 말한다.
확증 편향은 사용자는 자신의 기존 신념을 강화하는 정보만을 접하게 되면서 점점 자신 입장이 절대적으로 옳다고 믿게 되는 것을 말한다.
이러한 현상은 개인의 정보 소비 패턴에 영향을 미칠 뿐만 아니라 사회적으로도 특정한 이념과 가치관을 강화시키며 여론 형성에 중요한 역할을 한다.
2. 알고리즘과 사회적 가스라이팅
2.1 가스라이팅의 개념과 사회적 적용
가스라이팅(Gaslighting)은 타인의 사고와 현실 인식을 조작하여 혼란을 야기하는 심리적 조작 기법이다. 주로 개인 간의 관계에서 발생하는 것을 말한다. 그러나 현대 미디어 환경에서는 디지털 가스라이팅(Digital Gaslighting)이라는 형태로 확대되어 사회적 차원에서 발생하고 있다.
사회적 가스라이팅에는 특정 세력이 지속해 편향된 정보를 제공하여 다수의 사람이 특정한 인식을 가지도록 유도하는 현상을 말한다.
또한 디지털 가스라이팅은 유튜브와 같은 미디어 플랫폼을 통해 알고리즘적 필터링과 반복 노출을 활용하여 대중의 신념이 왜곡되는 것을 말한다.
유튜브 알고리즘은 이러한 사회적 가스라이팅을 촉진하는 주요 도구로 작용하며 다음과 같은 방식으로 진행된다.
정보의 반복 노출(Repetition Effect)로 동일 정보가 반복적으로 노출될 경우, 사람들은 그것을 사실로 인식하는 경향이 있다.
반대 정보의 차단(Opposition Suppression)으로 반대되는 시각의 콘텐츠는 노출이 감소하면서 대중이 균형 잡힌 정보를 접할 기회가 줄어든다.
또 집단 극화(Group Polarization)로 비슷한 신념을 가진 사람들이 온라인 커뮤니티를 형성하면서 점점 더 강경하게 되는 성향을 가지고 있다.

2.2 유튜브 알고리즘의 세뇌 효과
사회적 가스라이팅은 궁극적으로 세뇌(Brainwashing) 효과를 유발할 가능성이 높다. 지속적인 정보 조작을 통해 사용자의 사고방식이 특정한 방향으로 형성되며 비판적 사고 능력이 점차 약화된다.
이는 결국 자신의 사고를 포기하고 기계적으로 특정 이념을 받아들이는 상태로 이어질 수 있다.
3. 사회적 영향과 기술적 발전의 반향
3.1 사회 분열과 정치적 극단화
유튜브의 알고리즘이 유발하는 편향성과 가스라이팅은 결과적으로 사회적 분열과 정치적 극단화를 초래한다. 예를 들어 정치적 성향이 다른 사람들 사이의 대화가 단절되고, 갈등이 심화된다.
또한 허위 정보와 음모론이 확산되면서 합리적인 토론보다는 감정적 대립이 우선시된다. 그리고 특정 집단이 온라인 공간에서 과격한 행동을 조직화할 가능성이 증가한다.
3.2 기술 발전과 인간성의 붕괴
기술이 발전함에 따라 인간의 사고방식은 더욱 알고리즘에 의존하게 된다. 이는 인간의 자율성을 약화시키는 결과를 초래할 수 있다. 궁극적으로 알고리즘이 인간의 정보 소비를 완전하게 통제하는 단계에 이르면 자율적 사고가 붕괴하고 인간이 기계화된 존재로 전락할 위험성이 존재한다.
4. 미디어 리터러시와 중립적 정보 소비의 중요성
유튜브의 알고리즘은 단순한 추천 시스템을 넘어 사회적 편향을 심화하고 가스라이팅을 유도하는 강력한 도구로 작용하고 있다. 알고리즘이 특정한 시각을 강화하는 구조를 가지는 한, 이를 악용하는 세력은 지속해 등장할 것이다.
결과적으로 사회적 갈등과 인간성의 붕괴가 가속화될 것이다. 이를 방지하기 위해서는 미디어 리터러시 교육과 정보 소비 습관의 변화가 필수적이다.

4.1 미디어 리터러시의 필요성
미디어 리터러시는 디지털 시대의 필수 역량으로 정보의 출처를 비판적으로 평가하고 객관적 사실과 의견을 구별하는 능력을 포함한다.
특히, 알고리즘이 주도하는 정보 환경에서는 다음과 같은 리터러시 교육이 중요하다.
▲ 정보 출처 확인: 영상 제작자의 배경, 출처의 신뢰성, 정보의 사실 여부를 검증하는 습관을 기른다. ▲ 다양한 시각 접하기: 알고리즘이 추천하는 콘텐츠 외에도 다양한 관점을 접하려는 노력이 필요하다. ▲ 확증 편향 인식: 자신의 신념과 일치하는 정보만 소비하지 않도록 스스로 경계하는 태도가 중요하다.
4.2 중립적 정보 소비를 위한 실천 방법
신뢰할 수 있는 뉴스 및 학술 자료 활용을 통해 단순히 알고리즘이 추천하는 콘텐츠만이 아니라 공신력 있는 뉴스 매체나 학술 자료를 참고해야 한다. 또 디지털 미디어 균형 잡기를 실천해 소셜 미디어와 유튜브뿐만 아니라 다양한 매체(신문, 라디오, 책 등)를 활용하여 정보를 습득한다.
그리고 팩트체크 활용으로 허위 정보를 걸러내고자 하는 의지로 여러 매체를 교차 체크해야 한다.
4.3 플랫폼의 책임과 정책 개선
사용자 개인의 노력만으로는 편향적 정보 확산을 완전히 막을 수 없다. 따라서 플랫폼 기업들은 다음과 같은 방식으로 책임을 다해야 한다.
알고리즘 투명성 강화하고 추천 알고리즘의 작동 방식을 공개하고 사용자가 필터 버블에서 벗어날 수 있도록 지원해야 한다.
그리고 중립적 정보 추천 시스템 구축해 다양한 시각을 균형 있게 노출하는 알고리즘 설계를 도입해야 한다.
또한 허위 정보 확산 방지 정책 강화하고 사실 검증 시스템을 더욱 강화해야 한다. 그리고 허위 정보 유포 채널에 대한 제재를 강화해야 한다.

결론
유튜브 알고리즘의 편향성과 가스라이팅 효과는 현대 사회에 심각한 영향을 미칠 수 있다.
그러나 이러한 문제를 극복하기 위해서는 개인 차원의 미디어 리터러시 교육과 정보 소비 습관의 변화뿐만 아니라 플랫폼 기업의 책임 있는 정책 개선이 동시에 이루어져야 한다.
하지만 결국 우리가 더 비판적이고 균형 잡힌 정보 소비 습관을 갖춘다면 알고리즘의 위험성을 줄이고 건강한 디지털 환경을 구축할 수 있을 것이다.