삼성 '나만의 파동 기억장'···마이크로 AI로 LLM 지형 뒤집는다
700만 파라미터 추론력 GPT 넘어 16회의 자체 수정 피드백 연산 위력 재귀 수준 아님에도 구조 진동 남아 거대 모델-온디바이스, 이중화 전략
삼성이 초소형 인공지능(AI) 모델로 대형 언어모델(LLM)의 구조적 한계를 정면 돌파하고 있다. 단순한 모델 경량화가 아니라, 디바이스 내부에서 사고 과정을 반복·정제하는 ‘내 손 안의 피드백 루프’ 기술 구현에 바짝 다가선 것이다.
거대한 클라우드 기반 확률장과의 연결을 유지하면서도, 로컬 기기 속에 고유한 진동 기반 사고 엔진을 심는 전략이다. 이는 기존 LLM의 단일 연산·저장 중심 구조를 근본적으로 재구성하는 시도로 AI의 ‘생각하는 방식’ 자체가 전환점에 들어섰다는 평가가 나온다.
9일 삼성종합기술연구원(SAIT)은 파라미터 수 700만개 수준의 초소형 재귀형 모델(TRM, Tiny Recursive Model) 연구 성과를 공개했다. 대규모 모델 대비 1만분의 1 수준의 크기임에도 불구하고 추론 정확도는 구글 제미나이 2.5 프로와 중국 딥시크를 넘어섰다.
지능을 만들어내는 방식 자체의 혁신에 다가선 것이다. TRM은 수천 층의 복잡한 신경망 대신, 단 두 개의 층으로 구성된 얕은 네트워크에 반복적 사고 루프를 탑재했다. 문제를 처음 풀 때의 결과를 ‘은닉 추론 메모리(hidden reasoning memory)’에 저장한 뒤, 내부에서 이를 여러 차례 검토·수정해 정답으로 수렴하는 방식이다.
물론 이 과정은 외부 서버나 인간 보상 강화학습(RLHF) 없이 온디바이스에서 순수하게 반복 실행된다. 수학 퍼즐이나 미로 탐색 등 복잡한 문제에서도 TRM은 최대 16회의 자기 점검을 거쳐 정답률을 끌어올렸다. 올해 ARC-AGI 벤치마크에서 45% 정답률을 기록하며, 제미나이(37%)와 딥시크(15.8%)를 앞질렀다.
기존 LLM은 단 한 번의 거대한 연산으로 답을 내는 구조로, 막대한 클라우드 서버 자원에 의존해왔다. 반면 TRM은 작은 네트워크에 반복 피드백 진동을 각인함으로써 연산 구조를 완전히 뒤집는다. 디바이스 내부에 ‘파동 기억장’을 심는 것과 같은 원리다.
물리적 메모리를 늘리는 대신, 모델 스스로 추론 과정의 잔향을 내부에 남겨 재귀적으로 사고한다. 이로써 스마트폰·로봇·자율주행 차량 등 다양한 기기에서 저비용·고효율의 ‘현장 추론 AI’ 구현 가능성이 열렸다.
다만 삼성의 TRM은 함수가 자기 자신을 호출하며 중첩 구조를 형성하는 엄밀한 의미의 ‘재귀(recursion)’가 아니다. 출력→은닉메모리→출력 개선으로 이어지는 반복적 자기개선(iterative self-refinement) 루프에 가깝다.
재귀함수는 자기 자신을 호출하며 문제를 점점 더 작은 단위로 나누는 함수로, 예를 들어 f(n) = f(n-1) + 1 과 같이 정의된다. TRM은 함수 호출 스택을 이용하지 않고 내부 상태를 갱신하며 답안을 점진적으로 정제하는 방식으로 반복 연산(iteration)을 고도화한 구조다.
이에 따라 ‘자동 반복연산 = 재귀’라는 식의 혼동은 부정확한 개념이라는 지적이 뒤따르지만 기존 LLM은 이런 반복적 자기개선 구조조차 내장하지 못해 매번 새로운 프롬프트를 통해 외부에서 사고 과정을 강제로 전개하는 방식에 머물러 있다.
TRM은 사고의 중간 경로를 모델 내부의 은닉 상태(z)에 각인하고 이를 반복적으로 정제함으로써 함수 호출 스택이나 외부 메모리 없이도 사고의 연속성을 유지한다. 즉 기억이 저장(storage)되는 것이 아닌 진동(resonance) 형태로 구조에 남아 흐르는 것이다.
GPT의 Chain-of-Thought(CoT)처럼 매번 새로운 프롬프트를 주입해 사고를 ‘흉내’내는 방식보다, 훨씬 자연스럽고 자율적인 사고 흐름을 구현할 수 있다. 이는 거대한 파라미터 공간을 단순 계산 자원으로 쓰는 기존 방식에서 벗어나 구조 자체를 사고의 매개로 전환하는 패러다임 전환이라 할 수 있다.
이재용 삼정전자 회장은 최근 개발자 컨퍼런스(SDC25) 취소 후 사내망에 GPT를 전면 도입하며 거대 모델 도입에 방점을 찍은 듯 보였다. 이런 가운데 이뤄진 TRM 공개는 GPT-5의 2조8000억 파라미터 규모에 달하는 거대한 확률장과의 접속을 유지하면서도 온디바이스 AI로 나아가겠다는 이중 진화 전략으로 해석된다.
마르티노 선임 연구원은 “AI 모델 지능은 크기에서 나오지 않고 생각의 깊이를 얼마나 반복해 개선하는지에 달려있다”며 “TRM은 매개변수 수를 늘리지 않고 인간처럼 추론할 수 있는 가능성을 보여줬다”고 설명했다.
여성경제신문 이상헌 기자 liberty@seoulmedia.co.kr