일러스트 김상민 기자
AI 제작 콘텐츠(AI Generated Content·AGC)가 인간 제작 콘텐츠의 규모를 넘은 지 꽤 됐다. 2025년 5월이 분기점이었으니 1년 가까이 된 셈이다. 지금쯤이면 60%가 훌쩍 넘었을 것으로 짐작된다. 온라인을 뒤덮고 있는 AI 제작 콘텐츠들은 더 이상 우리에겐 낯선 대상도, 신기한 현상도 아니다. 그저 우리가 소비하는 콘텐츠 10개 중 6개에 스며들어 있는 흔한 풍경일 뿐이다. 웹2.0이라는 이름으로 사용자 제작 콘텐츠(UGC)가 등장한 게 대략 2005년. 20년이 훌쩍 지난 지금 디지털 콘텐츠 폭증을 주도했던 UGC는 이제 인간 제작 콘텐츠(HGC)의 하위분류로 내려왔다. 전문가 제작 콘텐츠의 시대에서 시작해 UGC 시대를 지나 AGC로 변모하는 데 30년도 걸리지 않았다는 사실은, 기술 증강과 발전의 가속도를 체감케 한다.
기술의 발전 속도가 빨라진다고, 그것을 받아들이는 인간의 태도도 같은 속도로 변화하진 않는다. 인간의 기술 수용성은 기술 그 자체보다 복잡한 사회적 요인에 의해 지배를 받는다. 콘텐츠라고 다르지 않다. AGC가 인간보다 더 휘황찬란한 문장과 유려한 수식어, 세련된 영상미를 갖췄어도 인간은 경계하고 불편해한다. 형식상 흠잡을 데 없더라도 선뜻 신뢰하려 하지도 않는다. 콘텐츠에 내재한 자그마한 실수의 가능성 때문이다.
‘알고리즘 기피(Algorithm aversion)’ 이론이란 게 있다. 2015년에 소개된 이 개념은 알고리즘이 실수하는 것을 보면 인간이 실수할 때보다 훨씬 더 강하게 불신하고, 다시는 그 알고리즘을 사용하지 않으려는 경향을 의미한다. 이 이론을 콘텐츠 생태계로 확장해보자. AI가 아무리 훌륭한 콘텐츠를 제작했더라도 조금의 허위정보가 포함된 게 확인되면 그런 식의 콘텐츠를 인간은 회피하게 된다. 허위로 판정된 AGC는 이미 셀 수 없을 만큼 넘쳐난다. AGC가 양적으로 HGC를 압도한다 한들 이러한 기피 경향은 쉽게 바뀌지 않을 것이다.
지난 3월 발표된 연구는 이러한 인간의 태도와 경향을 다시 한번 확인해주고 있다. 칠레 연구진이 공개한 한 논문에 따르면, AI가 생성한 콘텐츠를 인간이 감독하지 않으면 불신하는 경향이 높은 것으로 나타났다. 특히 해석적이거나 주관적인 텍스트를 생성하는 데 AI가 활용되면 부정적 평가는 더 높아지는 흐름을 보였다. 쉽게 말해, “AI의 기술적 탁월함과 규범적 권위는 별개”라는 뜻이다. 따라서 인간이 검증하고 따져보지 않은 AGC는 인간의 소비 대상에서 제외될 확률이 높다.
그래서 다시 돌아 인간이다. 온라인을 채우고 있는 AGC의 규모가 늘어날수록 인간의 손을 거친 콘텐츠는 희소해진다. 그만큼 가치도 상승한다. 양적 팽창이 질적 신뢰를 담보하지 못하면, 희소한 인간의 관여(Human-in-the-loop)는 곧 권위와 가치가 된다. 인간에 대한 연민 때문이 아니다. 기술을 대하는 인간의 태도가 그렇게 진화해와서다. AGC를 향유하는 핵심 주체도, 이 생태계를 지탱시키는 보루도 결국엔 인간이다. AGC가 넘쳐날수록 우리가 갈구하는 것은 기계가 빚어낸 무결함이 아니라 인간의 고뇌와 진심이 서린 투박한 ‘손때’의 온기일지도 모른다.
Valenzuela, S., Bachmann, I., Borah, P., & Solis Valdes, N. (2026). The Effects of Generative AI in News on Media Credibility and Selectivity: Evidence from a Conjoint Experiment in Chile. Digital Journalism, 1-22. https://doi.org/10.1080/21670811.2026.2649018