韓 36% 챗GPT 사용 중이지만
오픈AI, 정보 오류 책임은 회피
韓, 평가 및 통제 가능 역량 키워야

챗GPT의 아버지인 샘 올트먼이 GPT-5를 테스트한 뒤 두려움을 느꼈다는 이 발언은 오늘날 인공지능이 단순한 기술적 진보를 넘어 인간의 사고방식·의사결정·세계 질서 구조까지 뒤흔들 수 있는 문명급 기술이라는 점을 시사한다.
맨해튼 프로젝트는 제2차 세계대전 당시 미국이 비밀리에 진행한 핵무기 개발 계획이다. 세계 최초의 핵폭탄을 탄생시킨 이 프로젝트는 과학의 진보가 인류에 혁신과 동시에 파괴를 안길 수 있음을 상징한다. 올트먼이 GPT-5에 이와 같은 비유를 들었다는 것은 AI가 세계 질서를 바꾸는 결정적 전환점이 될 수 있음을 경고한 것이다.
이번에 출시한 GPT-5는 박사급 전문가의 지능을 갖춘 최신 모델로 범용인공지능(AGI)을 향한 진화를 본격화한 분기점으로 평가된다. 그럼에도 불구하고 여전히 ‘할루시네이션(hallucination, 환각)’ 문제에서 자유롭지 않다.
더 큰 문제는 오픈AI의 태도다. 오픈AI는 버그바운티(취약점 신고 보상) 프로그램에서 환각 현상은 보상 대상에서 제외했다. 오픈AI 측은 환각 현상이 수정 가능한 결함이 아닌 AI 모델의 근본적인 한계와 작동 방식에 따른 생성 오류로 간주했다. 이처럼 구조적 위험을 인정하지 않는 태도는 기술 신뢰성을 약화시키고 궁극적으로는 사용자에게 모든 책임을 전가하는 구조를 고착화시킬 수 있다.
전 세계 7억 명이 사용하는 챗GPT는 한국에서도 ‘국민 앱’ 수준으로 일상에 스며들고 있다. 와이즈앱·리테일에 따르면 6월 국내 챗GPT 월간 활성 이용자(MAU)는 1844만 명이다. 전체 인구의 약 36%가 이미 챗GPT와 일상적으로 상호작용하고 있다.
이재명 정부도 모든 국민이 AI를 무료로 사용할 수 있도록 ‘모두의 AI’ 프로젝트를 추진하겠다고 내세우며 AI 대중화에 속도를 내고 있다. 하지만 기술 확산 속도에 비해 사회적 대비가 턱없이 부족한 상황에서 AI 리터러시에 대한 대책 없이 확산만 거듭될 경우 정보 혼란·편향 수용·정책 오류·책임 공백 등 다양한 사회적 리스크가 현실화될 수 있다는 우려가 나온다.
올트먼은 최근 한 팟캐스트 인터뷰에서 “AI 기술은 너무 빠르게 발전하고 있으며 이를 감시할 ‘어른들’이 없다”며 규제 체계가 AI의 속도를 따라가지 못하고 있다고 지적했다. 이는 지금이야말로 AI의 확산을 넘어 이용자 보호를 위한 제도적 안전장치가 필요한 시점임을 의미한다.
정부는 AI 생태계 육성과 더불어 인공지능이 생성하는 정보를 비판적으로 평가하며 안전하게 활용하는 능력, 즉 AI 리터러시를 갖출 수 있도록 교육 체계와 정책 지원도 함께 마련해야 한다. 기업 자율에만 맡겨두기엔 AI는 이미 너무 강력해졌고 국민은 이미 AI를 일상 깊숙이 활용하고 있다.
정부는 ‘AI 3대 강국’ 전략을 선언하고 기술 주도권 확보에 사활을 걸고 있다. 그러나 AI가 국민 삶 깊숙이 들어온 지금 기술 개발과 인프라 확충만으로는 충분치 않다. 이제는 누구나 AI와 함께 살 수 있도록, 틀린 정보를 걸러내고 신뢰할 수 있는 지식을 선택하는 역량을 국가가 길러줘야 할 때다. AI를 개발할 기술력을 갖춘 나라를 넘어 올바르게 활용하고 통제할 수 있는 나라만이 진정한 AI 강국이라 불릴 수 있을 것이다.



