파운데이션 모델 공모 뛰어든 기업들
독자모델 운운 짝퉁 LLM 분류법 필요
네이버·SKT 등 대부분이 래핑에 의존
커스터마이징·클론 모델이 솔직한 편
KT 쌍둥이가 차라리 소버린에 가까워

이탈리아 베네치아를 대표하는 가면 축제. 세계 10대 축제 베니스 카니발은 매년 1월 말부터 2월 사이에 열린다. 본 기사 내용과 사진은 직접적인 관련이 없다. /여성경제신문DB
이탈리아 베네치아를 대표하는 가면 축제. 세계 10대 축제 베니스 카니발은 매년 1월 말부터 2월 사이에 열린다. 본 기사 내용과 사진은 직접적인 관련이 없다. /여성경제신문DB

챗 GPT처럼 보이지만 속을 열어보면 전혀 다른 엔진이 들어 있는 가짜들이 판친다. 존재하지 않지만 존재하는 것처럼 보이는 그것을 우리는 시뮬라크르(simulacre)라 부른다. 오픈AI GPT의 이름과 외형을 베꼈지만 실제로는 메타의 라마(LLaMA) 같은 완전히 다른 구조다. 말 그대로 껍데기만 GPT다.

네이버의 서치GPT가 대표적이다. 표면상 GPT인 것처럼 포장했지만 실제로는 메타의 라마(LLaMA) 아키텍처를 기반으로 설계된 하이퍼클로바X라는 래핑 모델을 돌린다. 세종 데이터센터에서 라마 계열 모델을 실행하면서 GPT 이름값만 따온 상태다.

특히 스페셜 토큰 맵에 <NAME>, <EMAIL>, <KEY>, <PASSWORD>를 지정해둔 것도 기괴하다. 정상적인 LLM이라면 이런 항목은 토큰화 전에 제거하거나 마스킹 처리하는 것이 기본이다. 그런데 구조화된 엔티티로 등록해 머신러닝 과정에서 네이버 기사 댓글 등 웹 데이터를 크롤링하며 개인 민감 정보를 수집했을 가능성이 제기된다. 물론 진짜 GPT의 파라미터는 한 줄도 포함돼 있지 않다.

20일 여성경제신문 취재 결과 허깅페이스에는 메이저 AI 개발사 모델의 명칭을 도용한 시뮬라크르가 넘쳐난다. 이름에는 GPT가 붙어 있지만 실제로는 메타의 라마(LLaMA), 미스트랄(Mistral) 심지어 독자 설계된 트랜스포머 계열 엔진에도 GPT란 이름이 적혀 있다.

진짜와 가짜를 구분하지 못하는 진입자가 늘면서 GPT의 이름값만 빌려 신뢰를 얻거나 시장 점유율을 확보하려는 의도가 곳곳에서 드러난다. 이 과정에서 GPT라는 이름은 일종의 브랜드처럼 소비되며 내부 엔진과는 무관하게 껍데기만 GPT로 포장한 모델들이 AI 생태계를 잠식한다. 

허깅페이스에서 GPT를 검색했을 때 뜨는 Mixtral-8x7B, Mistral-7B, SthenoWriter, Kunoichi 같은 모델들이 대표적이다. 이들은 GPT 스타일의 출력만 흉내 내지만 내부 파라미터와 아키텍처는 GPT와 무관하다. 이름에 GPTQ나 GPT2가 붙어 있을 뿐이다.

지금까지 오픈AI가 공개한 오픈소스 GPT 계열은 GPT-2 단 하나뿐이며, 그 이후 GPT-3·GPT-4 계열은 모두 비공개 상업용이다. 이렇다보니 GPT2 파생 모델들이 시장을 난무한다. 예를 들면 GPT2-Small-SAEs, gpt2_1558M_final2_hf 등이다. GPT2 코드베이스를 계승했지만 최신 GPT 계열과는 구조적으로 다른 구식 모델이다.

짝퉁 여부는 기술적 특성과 파생 정도에 따라 다섯 가지로 구분할 수 있다. 시뮬라크르는 GPT가 아닌 다른 LLM 엔진 위에 GPT 브랜드를 덮어씌운 위장형 AI다. 사용자에게는 GPT처럼 보이지만 내부 엔진과 파라미터는 GPT와 전혀 무관하다. GPT 아키텍처가 아니며, 자체 사전학습 데이터셋을 쓰고 표면적으로 GPT 답변 스타일을 흉내 낸다. 네이버 서치GPT처럼 겉만 GPT로 위장한 모델이 대표적이다.

커스터마이징(Customized GPT)은 오픈AI 엔진 위에 특정 도메인 데이터셋과 프롬프트 엔지니어링을 덧씌운 얇은 스킨형 인공지능이다. 엔진은 그대로지만 일부 문체, 어휘, 응답 우선순위가 달라진다. 금융 GPT, 법률 GPT 같은 특화형 에이전트 서비스가 여기에 속한다.

이 방식은 API 구조를 활용해 GPT 엔진을 호출하면서 외부 서비스에서 응답을 가공·제어하는 형태로 구현된다. 카카오가 오는 11월 발표 예정인 에이전트 모델도 이러한 커스터마이징 GPT에 해당하는 것으로 알려졌다. 기업이 자율적으로 한국형이라는 수식을 붙일 수는 있겠지만 독자 모델과는 구분할 필요가 있다.

클론(Clone)은 문자 그대로 전부 복제한 것이다. 오픈AI GPT 엔진과 학습 파라미터를 별도의 서버나 클라우드 환경에 구동하는 클론 GPT다. 심장과 기억까지 GPT 원본과 동일하며 오픈AI API 없이 로컬 인프라에 띄워 쓴다. 사내 GPT나 클라우드 기반 GPT 복제 서비스가 대표적이다.

독립적 쌍둥이(Independent Twin)는 GPT는 인격 자체가 다른 모델이다. 엔진을 기반으로 로컬 데이터셋과 문화적·언어적 레이어를 덧씌운 진화형 AI로, 엔진은 GPT 그대로지만 기억, 세계관, 성격이 달라 전혀 다른 AI처럼 작동한다. KT와 마이크로소프트(MS)가 추진하는 한국 국적 GPT처럼 국가별 환경에 맞춘 로컬라이징 모델이 이에 해당하며 차라리 이런 쌍둥이가 소버린 AI 개념에 가깝다는 평가도 나온다.

반면 한국에선 오픈소스 모델 위에 얇은 ‘래퍼형'(Wrapper Model)이 만연하다. 표면상 독자 AI처럼 보이지만 실제로는 다른 회사의 아키텍처를 그대로 돌리는 구조다. 네이버 클로바X와 KT의 믿음 2.0은 메타의 LLaMA 아키텍처를 그대로 가져왔고, SKT의 에이닷 역시 LlamaForCausalLM을 기반으로 한다. 그나마 구광모 LG그룹 회장이 심혈을 기울인 LG의 엑사원(EXAONE) 시리즈 정도가 트랜스포머 라이브러리를 직접 호출해 자체 구조를 구현해 '래퍼'를 벗어났다는 평가를 받는다.

겉포장만 바꾼 래퍼형 서비스는 비용 절감과 빠른 시장 진입에 유리하다. 그러나 이재명 정부의 소버린 AI 정책을 틈타 너도나도 파운데이션 모델 개발에 나서는 분위기는 문제로 지적된다. 스타트업 한 관계자는 “대기업들이 다들 어떻게든 독자 기술인 것처럼 포장해 정부 지원에 목 메는 모습이 우습다”면서 "껍데기만 GPT를 내놓은 하정우 AI미래수석이 공모 정책을 주관하니 시뮬라크르 판이 된 것 아니겠냐"고 지적했다.

여성경제신문 이상헌 기자 
liberty@seoulmedia.co.kr

관련기사

저작권자 © 여성경제신문 무단전재 및 재배포 금지