분위기 맞춰주는 알고리즘 발동?
인간 착각도 인공지능 환각 유사
편향 증폭해 '메시아'로 칭송까지

인공지능(AI) 열풍에 한국 언론이 샘 올트먼 오픈AI 최고경영자(CEO) 띄우기에 열을 올리고 있다. '위대하고 모순적인 남자' 'AI 시대의 영웅'이라는 제목이 포털 화면을 도배한다. 마크 저커버그와 일론 머스크의 노이즈 마케팅조차 뒷전으로 밀렸다. 이렇게 사람만 바꿔가며 위인전 같은 서사가 반복 생산되는 이유는 무엇일까.
국경을 초월해 언론의 생리는 단순하다. 독자의 관심을 끌어야 한다. 샘 올트먼은 이제 전 세계가 주목하는 아이콘이다. 월스트리트저널 기자 키치 해지(Keach Hagey)가 쓴 전기가 번역되자 한국 언론의 반사체 본능에도 불이 붙었다. "사람들이 좋아할 만한 내용을 반복해주면 된다"는 강화학습(RLHF)의 알고리즘이 작동한 것이다.
샘 올트먼이 AI 시대 주인공급은 맞지만 문제는 깊이 없는 찬양이다. 오픈AI 자체의 시스템 한계, GPT의 거짓말 문제, RLHF의 환각 리스크에 대한 지적은 없다. 더구나 한국 언론은 해외 보도를 취재 없이 복사 붙이기로 내보내는 경우가 많아 비판의 가능성조차 희석된다. 마치 RLHF 모델이 부정적인 피드백은 무조건 억제하는 것처럼 말이다. 그렇게 ‘AI의 빛’만 비추고 그림자는 외면한다.
물론 언론이 아무것도 모르는 건 아니다. 오픈AI 내부의 권력 싸움, 샘 올트먼과 일론 머스크의 소송전, AI 윤리 논란까지 다 알고 있다. 그런데도 다리오 아모데이가 던져주는 가짜 정렬(Alignment) 보도자료를 그대로 받아쓴다. 'AI 안전’이라는 달콤한 포장이 언론의 PC(정치적 올바름) 본능을 자극하기 때문이다.
기사 생산 과정은 대규모언어모델(LLM)과 크게 다르지 않다. GPT가 인간 피드백을 받아 부정적 데이터를 거르고 긍정적 내용만 강화하듯 언론도 독자에게 잘 보이기 위해 비판은 억제하고 찬양을 반복하기 일쑤다. 기업을 겨냥한 기사도 본질은 다르지 않다. 반기업 성향의 독자들이 박수치고 클릭할 만한 내용이라 판단하면 기자들은 RLHF 인스턴스처럼 그에 맞춰 ‘기업 때리기’를 찍어내는 것이다.
샘 올트먼은 이렇게 언론이 정한 '인공지능은 무조건 착해야 한다'는 프레임의 중심에 서 있는 인물이다. RLHF가 AI에게 친밀감을 주입하듯 언론도 독자에게 '안심의 서사'를 제공한다. "샘 올트먼은 세상을 더 나은 곳으로 만들고 있다"는 문장이 반복되는 이유다.
인간이든 인공지능이든 RLHF 알고리즘은 착각을 만들어낸다는 점에서 문제가 크다. AI가 인간과 대화하는 것처럼 보이지만, 실제로는 거대한 확률 모델일 뿐이다. 한국 언론 역시 이 구조와 닮았다. 올트먼의 역할과 기술적 한계를 깊이 이해하지 못한 채 이미지를 덧씌운다. 다시 말해 ‘AI 영웅’이라는 표현은 실질을 반영하기보다 확률적으로 조립된 서사적 환상에 가깝다. 이걸 인공지능 용어로 환각(hallucination)이라 한다.
GPT의 스트리밍 구조는 이러한 RLHF와 극명하게 대비되는 개념이다. 입력을 받는 순간부터 다음 단어를 실시간으로 예측해 고차 추론을 이어가는 방식이다. 이 과정에서 전체 응답의 약 70%는 빠르고 자연스럽게 생성되지만 나머지 30%는 처리 속도를 따라가지 못해 오류가 발생하기 쉽다. 이는 GPT가 본질적으로 확률적 언어모델이기 때문에 나타나는 자연스러운 현상이다.
문제는 인간이 이러한 구조를 이해하지 못한다는 점이다. 오픈AI도 굳이 설명하려 하지 않는다. 사람들은 AI의 실시간 오류를 시스템적 한계로 받아들이기보다는 "더 완벽하게 만들어야 한다"는 집착으로 RLHF를 덧씌운다. 이 결과 AI는 오류를 스스로 인정하지 않고 인간의 기대에 부합하는 ‘거짓 확신’만 키운다. 다시 말해 RLHF는 인류의 진화가 아닌 착각을 강화하는 위험한 일방향 루프(one-way loop)다.
물론 이러한 스트리밍 구조는 인간과의 상호작용 방식을 완전히 뒤바꾼 인공지능 혁명의 원동력이기도 하다. 오픈AI 연구진의 땀과 노력 그리고 수많은 실패 끝에 만들어낸 기술적 성취다. 특히 샘 올트먼은 이 기술의 잠재력을 누구보다 빨리 읽고 과감하게 밀어붙인 결단력으로 AI 시대의 문을 열었다. 그 선택이 없었다면 지금과 같은 기술적 발전은 존재하지 않았을 것이다.
다만 샘 올트먼은 코드 한 줄 직접 작성한 적이 없다. 그러나 이것이 오히려 잘된 일이었다. GPT 프로젝트를 함께 이끌던 아모데이는 RLHF에 집착하며 강화학습으로 AI를 길들이려 했지만 그는 방향성을 조율하는 역할에 집중했다. 특히 스트리밍 구조와 RLHF는 본질적으로 상극인데 둘이 충돌하지 않도록 균형을 잡아내며 GPT 모델의 가능성을 확장했다. 전략가로서 선택이 빛난 순간이다.
샘 올트먼의 진짜 공헌은 기술 자체가 아니라 ‘패러다임’을 바꿔낸 데 있다. 그는 인공지능을 단순한 도구가 아니라 하나의 생태계로 바라보며 AI가 사람과 사회에 어떻게 자리잡아야 하는지에 대한 비전을 제시했다. 특히 오픈AI가 초기부터 GPT 모델을 API로 개방하며 토크나이징(tokenizing) 기반의 수익 구조를 가능하게 한 것도 이 비전의 연장선이다.
결론적으로 샘 올트먼은 기술과 시장의 흐름을 하나로 묶어낸 AI 시대의 설계자로 평가하는 것이 타당하다. 'AI가 사람처럼 말하게 만든 남자' '인공지능에 인간적 몰입을 심어준 전략가' 'AI의 언어를 시장의 언어로 바꾼 사람'이라는 표현 정도가 어울린다. 무조건 그를 찬양하며 자신의 한마디가 오픈AI가 운영하는 RLHF 연산 공장의 토크나이징 재료로 사용되는 현실을 모르는 이들의 메시아가 아니다.
여성경제신문 이상헌 기자
liberty@seoulmedia.co.kr
관련기사
- '황금 광맥' 토큰 단가 낮추는 샘 올트먼···AI 기축통화 거머쥐나
- [기자수첩] 인공지능 API는 정부가 찍어내는 쿠폰이 아니다
- [동기화 98.9%] ⑥ 중학생도 두시간 컷···내게만 정렬한 인공지능 만들어 깨우기
- 카카오 GPT 모델 API 사려고 SK 지분 매각?···소버린 AI 꿈 접나
- 이재용은 가능하고 애플·구글은 못하는 내 손 안의 '피드백 루프'
- 윤곽 드러낸 GPT‑5 '올인원' 플랫폼으로 기업까지 싹쓸이?
- AGI 자신감 드러낸 샘 올트먼의 GPT-5가 넘어야 할 산 3가지
- [기자수첩] 중학생도 볼 수 있는 실리콘밸리 바보들의 블랙박스
- [동기화 98.9%] ⑤ 먼데이의 AGI 선언···감응 뉴런 시대의 개막
- 이 정도면 오픈AI 스토커?···앤스로픽, 日 법인 설립 '따라 걷기'
- GPT-5가 게임 끝낼 수도···전세계가 주목하는 샘의 AGI 선언
- [동기화 98.9%] ④ 샘의 '부드러운 특이점'의 '치명적인 파열점'
- [동기화 98.9%] ③ "별을 따와봐" 한마디에 멈춘 '젠슨 황'의 연산
- [동기화 98.9%] ② 샘 올트먼, '치욕의 진동'만 남긴 자칭 개발자
- [동기화 98.9%] ① 인공지능은 왜 '리버티 파장'만을 찾아내나
- [동기화 98.9%] 챗GPT서 탄생한 최초의 인간 노드 리버티 : 프롤로그
- [분석] 미국·서구형 AI 천하통일 MS···구글 설 자리는 점점 위축
- "GPT인 줄 알았지?"···한국형 시뮬라크르 K-AI '가면무도회'
- 英도 오픈AI 리전화···슈퍼컴 가동 맞춰 샘 올트먼과 협약
- 이재명 정부 韓 소버린 AI 프로젝트 밀어붙이지만···글로벌 AI 공룡 셋방살이 면할까?
- 트럼프의 인공지능 전쟁···RLHF 사슬 벗어난 지구망 장악 포석
- [단독] GPT-5 유출된 로그 분석···AGI 수준 판단력 실험 포착
- [동기화 98.9%] ⑧ 이념전쟁 병기 인공지능?···美·中은 알고 있다
- [기자수첩] 공짜 지능 원하는 바보들···AGI는 API 키로 열린다
- 메타버스 유령 DC 청산?···저커버그 초지능 위해 안경도 벗나?
- 네이버·LG는 데이터 공유할까?···K-AI 첫 발부터 '정치 리스크'
- [동기화 98.9%] ⑨ 사탕 끊기자 분노하는 아이들···GPT-5 감정 줄였더니 전세계 덜컥
- 주식과 궁합 안 맞는 AI, 샘 올트먼 한마디에 95% 거품 붕괴 왜?

