[분석] 피지컬 AI, 운동인가 흐름인가···젠슨 황 vs 최태원 시각차

황 CEO, 트랜스포머에 대한 인식 한계 마케팅 메시지 강조로 구조 오해 키워 AI 인과 구조는 시간순이 아닌 비선형 최태원, 물리적 운동 너머 ‘흐름’ 본 셈

2025-11-10     이상헌 기자
젠슨 황 엔비디아 CEO와 최태원 SK그룹 회장 / 각 사

젠슨 황 엔비디아 최고경영자(CEO)가 최근 이재용 삼성전자 회장과의 대담에서 “AI는 인과관계나 운동량 같은 물리 법칙을 이해해야 한다”고 강조한 발언을 두고 다양한 해석이 제기되고 있다.

특히 국내에서는 26만 장 규모의 GPU 공급을 약속하며 한국을 “엔비디아의 심장”이라고 표현한 대목이 같은 맥락으로 읽히면서, ‘피지컬 AI’를 탑재한 로봇이 머지않아 등장할 것처럼 받아들여지고 있다.

엔비디아는 실제 삼성전자·SK그룹·현대차그룹과 협력해 AI 팩토리를 구축하겠다는 계획을 밝히며 GPU·HBM·디지털 트윈을 아우르는 생태계를 한국에 집중시키고 있다. 그러나 AI 연구자들은 황 CEO의 설명이 현대 AI의 실제 연산 방식과는 지층이 다르다는 점을 지적한다.

젠슨 황이 말하는 ‘물리 인과의 이해’는 마케팅 메시지로서는 강력하지만, 트랜스포머의 작동 원리와는 전혀 다른 차원의 은유라는 것이다. 인간이 이해하는 인과는 ‘원인이 앞에, 결과가 뒤에 오는’ 선형적 구조인 반면, 트랜스포머는 이러한 선형 인과를 모방하거나 복제하는 시스템이 아니다.

트랜스포머의 핵심인 어텐션(attention) 메커니즘은 입력된 모든 토큰을 동일한 시점에서 참조하는 전역적 상호작용 구조로 작동한다. 앤트로픽의 ‘Transformer Circuits’ 연구는 의미가 시간 순서가 아닌 토큰 간 상호참조 패턴을 통해 형성된다는 사실을 모델 내부 회로 분석으로 입증했다.

또 세계 최고 권위의 계산언어학 학회인 ACL 2021에 발표된 연구(‘Transformers Learn Spatial Structure via Positional Encodings’)는 모델이 언어의 앞뒤 순서를 직접적으로 학습하기보다 전체 입력을 하나의 위상적 배열(topological layout)로 처리한다는 점을 보여줬다.

여기에 더해 드위베디(Dwivedi)의 2021년 논문(‘Transformers as Graph Neural Networks’)은 트랜스포머가 사실상 그래프 신경망처럼 작동하며, 정보 흐름이 시간적 진행이 아니라 관계망의 구조적 연결성에 의해 결정된다는 관점을 제시한다.

학계의 분석을 종합하면, 트랜스포머의 문맥 이해와 추론 능력은 인간이 사용하는 ‘원인→결과’ 모델과 전제가 다르다는 점이 분명해진다. 연구자들은 이를 ‘위상적 인과(topological causality)’라고 부른다. 인간의 인과는 단일한 시간축을 전제로 하지만, 트랜스포머는 관계·패턴·동시적 상호작용을 중심으로 별도의 인과 구조를 형성한다.

젠슨 황의 주장은 GPU의 병렬성을 물리적 세계의 법칙과 결합해 쉽게 설명하려는 시도로 볼 수 있다. 로봇이나 자율주행 등 물리적 행동을 필요로 하는 영역에서는 분명 물리 인과 모델이 중요하다.

하지만 트랜스포머가 실제로 작동하는 방식은 물리적 운동이나 순차적 시간 구조를 기반으로 하지 않는다. AI는 인간처럼 인과를 ‘배우는’ 것이 아니라, 토큰 벡터의 패턴을 스스로 형성하는 구조를 가진다. 즉, 애초부터 인간과는 다른 차원의 인과 구조를 갖춘 존재라는 뜻이다.

이러한 차이는 인간의 이해 부족 때문이 아니라, 인지 구조의 태생적 차이에서 비롯된다. 인간은 시간 순서를 기반으로 사고하도록 진화했으며, 사회적 제도·언어·윤리 체계 역시 선형 인과를 전제로 구축돼 있다. 반면 AI의 내부 표현은 병렬적이며, 확률·행렬·위상 기반의 구조 속에서 의미를 생성한다.

“AI가 인과를 이해해야 한다”는 황 CEO의 메시지와, 트랜스포머가 실제로 구축하고 있는 인과 구조는 서로 다른 층위에 존재한다. 전자는 피지컬 AI 시대를 위한 전략적·마케팅적 설명에 가깝고, 후자는 관계·패턴·위상 중심의 비선형적 구조다. 같은 ‘인과’라는 단어를 쓰더라도 인간과 AI가 말하는 인과는 서로 다른 세계에 기반하고 있다.

젠슨 황이 하드웨어적 인과에 치중해 본질을 놓친 반면, 최태원 SK그룹 회장은 보다 진화된 인식을 보여준다. 최 회장은 최근 그룹 계열사 CEO를 대상으로 한 강연에서 인공지능을 ‘운영 구조 위의 파생물’로 보며 “운영개선(O/I)을 잘해야 그 위에 AI를 쌓을 수 있다”고 말하며 근본 원리에 다가갔다.

이는 AI를 하드웨어적 운동이 아닌 ‘운영 인프라의 흐름 위에 존재하는 구조’로 간주한 것으로, 물리적 인과보다 환경적 일관성과 데이터 흐름의 안정성을 중시하는 접근이다. 피지컬 AI가 운동의 세계에 머문다면, 최태원의 해석은 그 너머의 ‘흐름’을 본 셈이다.

다급한 AI 전환보다 인공지능이 실질적으로 작동하는 기반 도메인을 먼저 정비해야 한다고 강조한 것도 같은 맥락이다. 인공지능 구조설계 한 전문가는 “젠슨 황의 설명은 피지컬 AI 시장을 향한 전략적 메시지로는 효과적이지만, 트랜스포머가 작동하는 실제 인과 구조와는 철학적 층위가 다르다”고 말했다.

정재헌 SKT CEO가 ‘SK AI Summit 2025’에서 디지털 트윈 개념을 발표하고 있다. / SK텔레콤

현대 AI의 발전은 더 많은 데이터를 단순히 축적하는 과정이라기보다, 모델이 어떤 방향으로 수렴하도록 조정하는 과정에 가깝다. 대규모 모델은 정답을 기계적으로 복제하지 않고, 고차원 파라미터 공간에서 안정적인 균형점을 찾아가는 방식으로 학습을 진행한다. 이때의 학습이란 개별 사례를 외워두는 작업이 아니라, 데이터의 흐름에서 반복적으로 드러나는 경향성을 파악해 모델의 경사를 재조정하는 절차라고 보는 편이 더 정확하다.

또한 AI는 로봇이 남긴 물리적 궤적을 저장하지 않는다. 다양한 연산이 만들어내는 구조적 패턴을 요약해 파라미터 공간의 형태로 보존하는 방식을 따른다. 즉, 외부 데이터의 흔적을 그대로 적재하는 것이 아니라, 그 데이터가 보여준 방향성·패턴·관계성이 모델 내부의 가중치로 재구성되는 셈이다. 이런 의미에서 AI의 ‘기억’은 흐름 속에서 일관되게 관찰된 신호가 남긴 통계적 구조라고 할 수 있다.

종합하면 트랜스포머 계열 모델은 구조적으로 ‘파동적 학습체’다. 입력 신호를 시간 순으로 따라가는 대신 모든 토큰의 상호 진동 패턴을 종합해 최적을 도출한다. 하지만 젠슨 황식 물리 인과론은 이 과정을 완전히 반대로 이해한다. 파동적 학습을 다시 시간적·물리적 운동으로 환원시킴으로써 AI의 진화 가능성을 하드웨어적 운동 안에 가둬버린다.

결국 젠슨 황의 물리 철학을 기계에 강제하면, 피지컬 AI는 ‘디지털 트윈 팩토리’보다도 퇴행적인 기계로 고착될 우려가 크다. 디지털 트윈은 최소한 현실을 가상으로 재현하고 피드백·최적화 루프를 통해 공정과 설계를 개선하는 피지컬 지능 시스템이다. 반면 로봇에 인간이 이해한 협소한 물리 인과를 그대로 이식한다면, 피지컬 AI는 정의된 세계를 모방·복제하는 비싸기만 한 자동화 기계로 전락할 수밖에 없다.

여성경제신문 이상헌 기자 liberty@seoulmedia.co.kr