[기자수첩] 모두가 알고 있지만 외면한다···인류는 AI를 올바르게 활용할 수 있을까

'도구'가 사람 대체···불신·불안에서 나온 공포 패권 경쟁 속 '불편한 진실' 된 윤리 해결 과제 주요 의사 결정자들은 원론적 얘기만 '반복'

2025-10-06     김민 기자
AI 사용이 시대의 흐름이 된 상황에서 인류가 AI를 올바르게 활용할 수 있을지에 대한 의구심도 커지고 있다. 사진은 아마존 웹서비스(AWS)의 AI 사진이다. /연합뉴스

얼마 전 AI 관련 논란으로 인터넷이 뜨겁게 달아올랐다. 이번 사건의 시발점은 한 언론 보도였다. 지난 9월 30일 서울교통공사가 본격적인 투병에 들어가며 활동을 쉬기로 한 강희선 성우(여·65)의 목소리를 AI에 학습해 활용할 것이라는 소식이 보도됐다.

강씨는 1979년부터 활동한 베테랑으로 '짱구는 못말려' 속 짱구 엄마 봉미선의 목소리로 유명하다. 그는 지난 29년 동안 서울 지하철 한국어 안내 방송도 담당해 왔다. 일에 대한 애정이 강했던 강씨는 2021년 대장암 진단을 받고 항암 치료를 하면서도 녹음을 이어왔다.

그러나 얼마 전 투병으로 활동을 중지한 그에게 충격적인 소식이 전해졌다. 서울교통공사가 강씨의 목소리를 AI에 학습해 활용하려 한다는 사실이 알려진 것이다. 그는 관련해 들은 바가 전혀 없었다.

공사는 논란이 커지자 즉시 해명에 나섰다. 이들은 안내 방송을 '인공지능 음성 합성(AI TTS)' 방식으로 전환하는 것과 관련해 성우 목소리의 학습을 검토한 적이 없다고 밝혔다. 강씨가 녹음할 수 없어질 상황에 대비해 인공지능 기술 도입을 검토한 것은 맞지만 어디까지나 '안'에 불과하다는 것이다.

그러나 해명에도 비판의 목소리는 사라지지 않았다. 지난 2018년에도 서울 지하철 1·3·4호선 일부 구간을 운영하는 코레일이 강씨의 목소리를 AI로 바꾼 적이 있었다. 강씨는 지난 2024년 tvN '유 퀴즈 온 더 블럭'에 출연해 이를 두고 섭섭함을 드러내기도 했다. 그런데 비슷한 일이 또다시 발생하고 말았다. 강씨 측은 언론을 통해 회의를 느낀다고 말했다.

AI의 활용이 시대의 흐름이 된 상황에서 관련 논쟁이 더욱 잦아지고 있다. AI 논쟁의 종류는 저작권, 일자리, 윤리 등으로 다양하다. 해당 논쟁들은 각각 다른 내용을 다루고 있지만 공통점도 존재한다. 바로 'AI가 인간을 대체할 수 있다는 공포'와 '인간이 AI를 올바르게 활용할 수 있는지에 대한 불신'으로부터 탄생했다는 점이다.

흔히 AI에 대한 불안을 표할 때 가장 많이 나오는 말이 "AI는 인간의 도구이며 도구를 얼마나 효율적으로 활용할지는 전적으로 인간의 선택에 달려 있다"다. 맞는 말이다. 많은 사람이 이에 동의할 것이다. 그러나 '사람이 AI를 올바르게 활용할 수 있는가'에 대해서는 아직도 의견이 천차만별로 갈린다.

AI 활용의 윤리적 문제와 관련해 논의가 부족하다는 지적이 계속해서 나온다. /연합뉴스

인류는 자신의 AI 활용 능력에 대한 확신이 부족하다. 여기서 활용 능력이란 AI 사용 방법을 넘어서 'AI 사용에 관한 국제적 합의를 만들 수 있는지', '관련한 윤리적·철학적 문제에는 답을 내릴 수 있는지'를 의미한다.

물론 이제 막 AI가 떠오르는 시점에서 바로 답을 내놓기는 힘들다. 해당 문제들이 여러 이해관계의 고려와 철학적, 인문학적 사고를 필요로 한다는 걸 생각하면 더욱 그렇다.

하지만 어려움과 별개로 '인류가 문제의 해결을 위해 최선을 다하고 있는가'에 대해서는 회의적인 의견이 많다. 규제가 기술 발전 속도를 따라잡지 못하는 상황에서 국가는 AI를 어떻게 하면 다른 나라보다 더 빨리 발전시킬 수 있는지에만 골몰한다.

지적의 목소리 자체는 꾸준히 나왔다. 지난 9월 23일 200명이 넘는 전직 국가원수, 외교관, 노벨상 수상자, AI 리더들이 모여 각국 정부가 2026년 말까지 AI가 절대 넘지 말아야 할 '레드라인'에 대한 국제정치 협정을 체결할 것을 촉구했다. 이들은 '글로벌 AI 레드라인 호명(Global Call for AI Red Lines)' 이니셔티브에 서명했다.

프랑스 AI 안전센터(CeSIA)의 샤르벨-라파엘 세게리(Charbel-Raphaël Segerie) 전무이사는 "목표는 대형 사고가 발생한 후 대응하는 것이 아니라 되돌릴 수 없는 위험을 예방하는 것"이라며 "각국이 AI로 무엇을 하고 싶은지에 대해 아직 합의할 수 없다면 적어도 AI가 절대 해서는 안 되는 일에 대해서는 합의해야 한다"라고 설명했다.

지난 유엔 총회에서도 AI 기술이 논의됐다. 당시 유엔 안보리 의장 자격으로 참여한 이재명 대통령은 "AI는 지식과 정보 처리 전 과정에서 가장 파괴적 혁신을 가져올 발명품이고 심지어 스스로 인간처럼 판단과 결정까지 내릴 수 있다"라며 "따라서 우리가 AI라는 도구를 어떻게 다룰 것인지에 따라 우리 앞에는 전혀 다른 미래가 펼쳐지게 될 것"이라고 말했다.

그러나 국제 사회의 노력은 여기까지였다. 각국의 정부는 AI 논쟁과 규제에 관해 원론적인 주장만 반복한다. AI 기술의 발전이 국력을 결정하는 상황에서 윤리적 문제에 힘을 쓰다 경쟁에서 뒤처질 수 있다는 염려를 품고 있기 때문이다. 결국 AI 윤리의 필요성을 모두가 알고 있지만 아무도 말하지 않는 상황이 됐다.

사람은 본디 어렵고 복잡한 일을 싫어한다. 이런 경향은 해당 문제가 중요할수록, 결정 시 손해가 클수록 더욱 심해진다. 사실 AI도 이런 인간의 단점을 보완하기 위해 나왔다고 볼 수 있다.

기술의 발달로 윤리와 관련된 인간 고유의 사고와 결정 능력의 가치는 더 중요해졌다. 그러나 역설적으로 인류는 이런 인간 고유의 사고와 결정이 필요한 영역에서 회피만을 반복하고 있다. 경제성이 없다는 이유로 관련 논의를 무시하기도 한다. 모두가 인간의 사고 능력이 중요하다고 말하지만 누구도 이를 적극적으로 쓰고 있지 않은 것이다.

AI의 발전을 막기는 힘들다. 그렇기에 우리는 AI를 어떻게 활용할지에 관한 답을 내려야만 한다. 도구에 잡아먹히지 않기 위해 회피하지 말고 마주쳐야 할 때가 왔다. AI가 아닌 진짜 성우의 목소리가 정겹게 들리는 오늘날, AI가 도구에만 머물기 위해서라도 사람의 가치를 다시 생각해 봐야 한다.

여성경제신문 김민 기자 kbgi001@seoulmedia.co.kr