신한라이프의 생성형 AI 도전?···진짜 학습이면 개인정보 위험
RAG 수준 그치면 안전하지만 파인튜닝까지 갔다면 위험성↑ 상담 개선 등 긍정적 효과 공존 금융권 AI 용어 투명성 높여야
신한라이프가 출시 예정인 ‘생성형 인공지능(AI)’ 서비스 사업을 두고 논란이 일고 있다. 회사 측이 내부 문건을 AI가 ‘학습할 수 있도록 정제했다’고 밝히자, 업계에서는 이를 단순 검색·참조(RAG) 체계 구축으로 볼지 파인튜닝까지 포함된 학습으로 해석할지 의견이 엇갈린다.
12일 생명보험업계에 따르면 신한라이프는 “보험 약관·산출방법서·판매 예규 등 2만여 건의 기초 서류를 AI가 학습할 수 있는 데이터셋으로 정제했다”고 밝혔다. 금융·보험 데이터의 특수성을 감안할 때 보안·책임 리스크 우려가 뒤따르지만 복잡한 보험 업무의 난이도를 해소하고 고객 서비스 수준을 높일 수 있다는 기대도 있다.
파인튜닝은 모델 파라미터를 직접 조정하는 방식이어서 특정 기업 데이터가 범용 AI 모델에 결합될 경우 보안과 책임의 경계가 불투명해진다. 특히 보험 약관과 특약 문서에는 고객 권리·의무와 직결되는 민감 정보가 포함돼 있어 위험성은 배가된다.
그럼에도 업계 일각에서는 긍정적인 시각도 있다. 보험업은 방대한 문서와 복잡한 규정 탓에 고객 응대 속도와 정확도가 떨어진다는 비판을 받아왔는데 AI 기반 지식베이스가 정착된다면 상담 효율을 높이고 맞춤형 서비스를 제공하는 계기가 될 수 있다는 것이다.
신한라이프 측은 “업무 효율화와 고객 편의성 제고를 위한 조치”라며 보험 실무 전반에서 안정적으로 AI를 활용하기 위한 첫 단계를 마련했다고 설명했다. 다만 금융·보험업은 공공성이 강해, 데이터 처리 과정과 활용 범위를 투명하게 공개해야 한다는 지적은 여전히 남는다.
국내 규제 체계 역시 금융·보험 데이터 활용을 특정 목적 외에는 엄격히 제한한다. 만약 이번 정제가 실제 파인튜닝으로 이어졌다면, 법적·윤리적 가이드라인과 충돌할 수 있다는 우려가 뒤따른다. 빅테크 업계 관계자는 “신한라이프가 언급한 ‘학습’이 단순 RAG인지, 실제 파인튜닝인지가 핵심”이라며 “만약 후자라면 검증과 공시 절차가 병행됐는지가 관건”이라고 말했다.
만약 신한라이프의 설명대로 AI가 실제로 ‘학습’했다면, 해당 2만여 건의 약관과 문서에 대해 계약자 동의가 있었는지 여부가 쟁점으로 떠오른다. 금융·보험 데이터는 개인정보보호법 및 금융소비자보호법에 따라 활용 목적이 엄격히 제한되기 때문에, 동의 없는 학습은 법적 충돌 소지가 크다.
더 큰 문제는 이렇게 축적된 AI 결과물이 단순 참고 수준을 넘어 보험 계약·청구 등 고객 권리와 직접 연결될 수 있다는 점이다. 잘못된 답변이나 데이터 유출 위험이 현실화할 경우 피해는 고스란히 금융소비자에게 전가된다. 정부와 금융당국도 “AI 활용은 촉진하되, 금융권 데이터에는 별도의 엄격한 가이드라인이 필요하다”는 원칙을 재차 강조하고 있다.
국내 첫 생성형 AI 보험 서비스를 선보일 것으로 예상되는 신한라이프를 기점으로 금융권 전반으로 거버넌스 논의가 확산될 전망이다. 업계 관계자는 여성경제신문에 “AI는 잘 쓰면 산업을 바꾸지만, 방향을 잘못 잡으면 신뢰를 잃을 수 있다”며 “특히 ‘학습’ 같은 표현은 소비자 입장에서는 개인정보가 모델에 주입되는 것으로 오해될 수 있다”고 지적했다. 이어 “금융권은 AI 활용 과정에서 용어 선택부터 투명성을 높이는 노력이 필요하다”고 덧붙였다.
여성경제신문 이상헌 기자 liberty@seoulmedia.co.kr