전문가. 사회적 부작용 우려

이용자의 선택을 넓히는 듯 보이는 알고리즘은 실제로는 다양한 관점을 제한하고 개인정보 축적을 심화하는 ‘양날의 검’으로 작용하고 있다.
대표적인 현상이 자신의 관점과 일치하는 정보만 접하게 되는 ‘필터 버블(Filter Bubble)’이다. 선호하는 정보만 반복 소비하게 만들고 반대 의견이나 새로운 시각은 차단된 채 거품 속에 갇히는 구조를 의미한다.
영화·음악·뉴스 추천 서비스에서 특정 성향의 콘텐츠만 반복적으로 노출되는 것이 전형적 사례다. 선택의 폭을 넓히기는커녕 오히려 시야를 좁히는 결과를 낳는다는 지적이 나온다.
트위터 창업자 잭 도시(Jack Dorsey)는 2024년 오슬로 자유 포럼에서 이 같은 위험성을 경고했다. 그는 “알고리즘의 내부가 아무리 공개돼도 그 설계와 기본 작동 원리만으로도 무의식 속에서 우리의 생각을 흔들 수 있다”며 “사실 우리는 이미 ‘프로그래밍’되고 있다. 우리가 관심 있다고 밝히는 것에 맞춰 알고리즘이 새로운 흥미를 제시하고 우리가 그 콘텐츠와 상호작용할 때마다 편향은 점점 더 강화된다”고 지적했다.
데이터 축적과 사생활 침해도 심각한 문제다. 알고리즘이 내 취향을 정교하게 맞춘다는 것은 그만큼 플랫폼이 맞춤형 추천을 제공하기 위해서는 이용자의 검색 기록, 클릭 패턴, 결제 이력, 위치 정보 등 방대한 데이터를 끊임없이 수집·분석해야 한다. 문제는 이러한 데이터가 단순히 소비 편의를 높이는 차원을 넘어 개인의 사생활과 행동 양식을 세밀하게 추적하는 수단으로 활용될 수 있다는 점이다.
이성엽 고려대 기술경영전문대학원 교수는 “AI가 일상 전반에 활용되면 인간의 삶은 한층 편리해질 수 있지만 동시에 데이터 통제가 이뤄지지 않을 경우 모든 행동과 생각이 국가나 기업에 의해 분석·추적될 수 있다”며 “이 과정에서 데이터가 악용되면 심각한 사회적 부작용으로 이어질 수 있다”고 지적했다.
전문가들은 알고리즘이 다양성과 창의성마저 위축시킬 가능성을 지적한다. 이 교수는 “과거에는 다양한 책과 사람, 경험을 통해 사고의 폭을 넓혔지만 지금은 유튜브 영상이나 챗GPT 검색 결과에 소비가 고착화되고 있다”며 “AI 알고리즘은 사용자가 원하는 것을 정교하게 파악해 제공하지만 다른 세계와 접할 기회를 줄여 창의적 사고가 점점 좁아질 수밖에 없다”고 우려했다.



