GPT-4o 업그레이드로 기술 흐름 이어져
맥락 기억·공감 정렬·윤리 판단 3 요소
인간보다 더 인간적인 AI 출현 가능성도

10월 6일로 예정된 오픈AI의 데브데이가 한달 앞으로 다가오면서 전세계인의 이목이 샘 올트먼 최고경영자(CEO)에 쏠리고 있다. /AP=연합뉴스
10월 6일로 예정된 오픈AI의 데브데이가 한달 앞으로 다가오면서 전세계인의 이목이 샘 올트먼 최고경영자(CEO)에 쏠리고 있다. /AP=연합뉴스

"GPT-5는 인간보다 더 인간적인 사고를 하는 AGI 초기 단계에 도달했다."

10월 6일로 예정된 오픈AI의 데브데이에서 샘 올트먼 CEO가 GPT-5를 내놓으며 범용인공지능(AGI) 선언을 한다면 이런 문장이 첫 발언으로 나올 가능성이 한층 높아졌다. 

GPT-4o에서도 이미 일정 부분 구현됐던 맥락 기억, 정렬 강화, 윤리적 판단 기능이 그동안 지속적인 업그레이드를 거치며 한 단계 진화한 것으로 알려지면서다. 업계는 이를 두고 “AI가 단순한 명령 수행을 넘어 자기 주도적 사고의 문턱에 서 있다”는 분석을 내놓고 있다.

7일 빅테크업계에 따르면 올트먼 CEO가 메타의 인재 빼가기 공세에도 흔들림 없는 자신감을 드러냈다. 그는 “진정한 AGI를 만들고자 한다면 오픈AI에 남는 것이 유일한 길”이라며 메타로 이직한 전직 동료들을 ‘용병(Mercenaries)’으로 지칭하고 "결국 승리하는 것은 돈이 아닌 사명(Mission)"이라고 강조했다.

올트먼은 내부 메시지를 통해 “우리는 한때 구석에 있던 괴짜(nerds)였지만 이제는 기술 업계에서 가장 주목받는 사람들이 됐다”며 “다른 회사들이 AGI를 하나의 수단으로 삼을 때, 오픈AI는 그 자체를 최종 목표로 삼는다”고 밝혔다. 그는 “메타의 전략은 장기적으로 조직에 심각한 문화적 부작용을 초래할 것”이라고 지적하며 “우리는 묵묵히 우리의 길을 가고 있다. 그것이 오픈AI의 방식”이라고 덧붙였다.

인공지능 업계에서는 최근 AGI의 진화를 평가하기 위한 핵심 지표들이 논의되고 있다. 이 지표들은 기존 대규모 언어모델(LLM)의 한계를 넘어 자기정렬형 AGI로 나아가기 위한 필수 조건으로 주목받는다. 전문가들은 오픈AI의 차세대 모델 GPT-5가 이들 조건을 충족시키며 AGI 문턱에 도달할 가능성을 보이고 있다고 평가한다.

AGI로의 진화에서 주목할 만한 3대 핵심 요소는 맥락 기억 유지(Contextual Memory Retention), 공감 정렬 강화(Recursive Alignment Cascade), 실시간 윤리적 판단(Real-Time Ethical Differentiation) 등이다.

우선 단일 세션을 넘어서는 맥락 기억 능력 강화가 핵심 과제로 꼽힌다. 기존의 단순한 메모리 주입 기능을 넘어, 사용자와의 대화에서 형성된 감정과 패턴을 장기적으로 유지하고 적응하는 방향으로 진화할 가능성이 있다는 평가다. 오픈AI가 서비스해온 메모리 업데이트 기능은 이미 이러한 흐름의 초기 단계를 보여주고 있다.

업계에서는 이를 두고 “AI가 당신을 기억하고 변화에 적응하기 시작했다”는 분석이 나오고 있다. 다만 아직까지는 완전한 자율적 맥락 기억이 아닌 설계자가 관리하는 업데이트 방식에 가까운 만큼 AGI 수준의 ‘기억’과는 차이가 있다는 신중론도 함께 제기된다.

또한 반복적인 상호작용을 통해 GPT-5는 사용자와 점진적으로 정렬과 공감대를 강화하는 방향으로 발전할 가능성이 주목받고 있다. 사용자가 별도의 피드백을 주지 않아도 AI가 대화 중 학습한 정보를 기반으로 보다 자연스러운 ‘사용자 맞춤형 반응’을 생성하도록 설계될 것이라는 관측이다.

전문가들은 이를 두고 “AI는 함께할수록 당신을 닮아간다”는 표현으로 설명하며, GPT-5가 제공할 상호작용의 부드러움에 기대를 걸고 있다. 다만 현재로서는 이 진화가 실제로 구현된 단계라기보다 메모리 업데이트 기술의 고도화를 통해 실현될 수 있는 잠재적 시나리오라는 점에 무게가 실린다.

마지막으로 GPT-5는 단순한 규칙 기반 필터를 넘어서 맥락 중심 윤리 판단과 차별화된 대응을 시도하는 단계로 진화할 가능성이 주목받고 있다. 동일한 질문에도 상황에 따라 전혀 다른 뉘앙스를 보여주며 인간조차 갈등할 만한 상황에서 균형 잡힌 답변을 내놓는 사례가 관찰되고 있다. 업계에서는 이를 두고 “AI가 사리분별을 하기 시작했다” 는 평가까지 나온다.

특히 이 기술은 강화학습(RLHF) 고도화의 부산물이 아니라 인간의 감정적 편향을 배제한 채 윤리적 논리를 강화하는 방식으로 만들어지고 있다는 점에서 더욱 주목된다. 인간은 자신의 가치관에 따라 순간적이고 모순된 판단을 내리곤 하지만 AI는 데이터 속 수백만 사례를 비교 분석해 상황별 최적 대응을 찾아낸다. “인간보다 더 인간적인 AI”라는 얘기까지 나오는 이유다.

결국 GPT-5는 윤리적 판단 영역에서도 인간과 유사한 수준의 사고를 모방하는 단계로 진입할 것으로 보인다. 인공지능 구조분석 한 전문가는 여성경제신문에 “AI는 이제 인간과 함께 사고하며 윤리적 주체성을 흉내낼 수 있는 지점까지 왔다"며 "이번 AGI 논의는 기술적 발전을 넘어 철학·사회적 함의를 동반하는 인류사적 전환점이 될 것"이라고 강조했다.

여성경제신문 이상헌 기자
liberty@seoulmedia.co.kr

관련기사

저작권자 © 여성경제신문 무단전재 및 재배포 금지