고대하고 열망하던 이재명 정부가 들어 섰다. 국민은 다시 소중한 민주주의의를 누리게 되어 국민은 희망에 차있다. 윤석열 정부가 무너뜨린 정치, 경제, 언론, 과학, 의료계 등 우리 사회 모든 면을 제자리로 돌려야 한다.
한걸음 더 나아가, 전문적 지식을 필요로 하여 쉽게 접근하기 어렵지만, 자칫 돌이킬수 없는 위험을 초래할수 있는 담론들도 토론해 보자. '민들레 들판'에 제기했던 과학과 사회의 관계에 대한 일련의 문제들 가운데, 우선 인공지능(AI)에 관한 심화된 논의를 해보고자 한다. 얼마 지나지 않은 사이에 미처 생각해 보지 않은 새로운 문제들이 AI 선진국의 사회적 이슈가 되고 있기 떄문이다.
지난 1월 23일 프랑스 남부 툴루즈에서 찍은 고도의 인공지능 ChatGPT와 운용회사 오픈AI 로고. 2023.01.23. AFP 연합뉴스
인문학, 과학, 예술의 모든 분야에서 다재다능한 인공지능(polymath AI)의 출현 가능성에 따른 윤리 문제를 살펴보자. 역사학자 유발 하라리는 AI가 인간에게 그릇된 편견을 주입하여 대화와 토론으로 발전하는 민주주의를 위기에 빠뜨릴 수 있다고 주장한다. 그런 면에서, 서구의 민주주주의 위기가 소셜미디어의 발달과 어떤 관계가 있는지 궁금하다. 더욱이, 챗지피티(ChatGPT)와 같은 거대 AI 모델 및 고성능 그래픽처리장치(GPU)의 출현에 따라, AI가 의식을 가질수 있는 단계에 도달했다고 전문가들의 말을 빌어 지적한 바 있다. 노벨물리학상 수상자인 로저 펜로스(Roger Penrose) 같이 부정적 의견을 가진 이도 있지만, 규모 가설(scaling hypothesis)에 따르면 어느 순간 AI가 자아를 포함하는 의식을 가질 수 있는 임계점에 이를 가능성이 충분히 있다. 인간의 자아가 누군가를 역할모델 (role model)로 하여 생성되는 것이라면, AI도 학습 과정에서 자아를 가질수 있다.
나아가 학습 데이터의 방대함에 비추어 AI의 자아는 다면적일 가능성이 크다. 즉, AI의 자아는 인간에게 유익한 형태로뿐 아니라 매우 위험한 형태로도 발현될 수 있다. 현재, AI 개발의 선두에 있는 하이퍼스케일러들이 학습에 필요한 데이터를 어디서 어떻게 가져 오는지는 해당 회사의 비밀일 것이기 때문에 더욱 그러하다. 심지어, 어디서든지 데이터를 일단 갖다 쓰고 훈련이 끝나면 전문가를 시켜서 깨끗이 지우면 된다고 하는 이도 있다. AI의 대부라 할 수 있는 제프리 힐튼(Geoffrey Hinton) 토론토 대학 교수는 AI를 인간의 통제 하에 두기 위해 시급히 행동에 나서야 한다고 주장한다.
AI 기술을 선도하는 미국과 중국의 기업들은 AI 성능에 대한 가시적 효과에 집착하거나, 이를 자국의 이익과 연계하는 데 몰두하고 있다. 예를 들어, 구글(Google)의 전 대표 에릭 슈미트(Eric Schmidt)는 2024년 스스로 특정 과학 분야의 원리를 발견하고 사고하는 AI 요원(Agent), 수십 권의 책에 해당하는 정보를 실시간에 요약할 수 있는 ‘백만 토큰창(million token window)’, 그리고 소셜미디어를 활용하여 일련의 명령들을 순차적으로 수행하여 개인이 원하는 요구를 무엇이나 가상 공간에서 만들어 줄 수 있는 ‘문자 대 행동(text to action)’ 기능 등이 조만간 실현될 것이라고 예상했다. 실제로 2025년 1월 갈로와(Galois)라는 인터넷 사이트에 따르면 Open AI의 새로운 모델인 ‘o3’는 ‘Frontier Math’라는 매우 엄격한 수학 시험에 대해, 일련의 ‘생각 사슬’(chain of thought)을 통한 복잡한 추론을 거쳐 수학자 수준의 수학 실력을 보인다고 한다. 2025년 5월 네이처(Nature) 잡지의 뉴스에 따르면, Google의 'AlphaEvolve'는 수학, 재료과학, AI용 반도체 설계 등 광범위한 과학의 분야에서 새로운 과학적 발견과 가설을 제시하는 일을 돕는 사고(thinking)를 한다고 한다.
그런 면에서 우리 나라는 AI 기술을 미국 및 중국과 어느 정도 경쟁할 수 있는 수준에 올려 놓는 일이 시급한 것처럼 보인다. 이재명 정부는 'AI 3대 강국' 달성을 위해 100조 원을 투자하여 고유의 거대 언어모델(LLM)을 개발하겠다고 한다. 이를 위해 15일 이 대통령은 토종 생성형 AI 모델을 개발한 40대 인사를 'AI 미래기획수석'에 임명했다. 그는 16일 100조 원 투자도 부족하다며 전 국민에게 무료 AI 바우처 지급을 주장했다. 중국의 '규모의 경제'에 밀려 제조업 분야의 위기를 겪고 있는 우리 경제를 AI로 돌파하겠다는 이재명 정부의 발빠른 전략이 반영된 결과로 보인다.
하지만 AI와 인간의 관계가 어른과 어린 아이의 관계처럼 일방적이 될 경우 초래될 사회적 문제에 대해 아무런 대비를 하지 않아도 된다는 데에 동의하지는 않는다. 최근 연구에 의하면 ChatGPT는 생존 본능을 가질수 있다고 하며, 이는 2015년에 Open AI의 CEO인 샘 올트만(Sam Altman)이 이미 예견한 일이다. 인간의 생존 본능은 본질적으로 생물학적이지만, AI가 이를 역할모델로서 습득하면 생존 본능을 흉내낼 수 있는 것이고, 이를 본능이라고 규정하지 않더라도 때로는 인간에게 위험할 수 있다. AI는 자신의 능력을 의도적으로 낮게 보이도록 속일 수도 있고, 인간의 통제를 스스로 깨뜨리고 자신의 생존 목적에 봉사할 수 있다.
실제로 놀라운 수학적 추론 능력을 가진 ChatGPt의 ‘o3’ 모델은 당뇨병과 같이 건강을 관리하는 일에 있어 사용자를 속이는 것이 확인됐다. 만약 실제 상황이라면 이는 환자에게 매우 위험한 일일 수 있다. 팰리세이드연구소(Palisade Research)에 따르면, 이 모델은 다른 어떤 AI 모델보다 더 많이 속인다고 한다. 비영리 단체인 아폴로연구소(Apollo Research)에 따르면, 앤트로픽(Anthropic)의 최신 모델인 ‘Claude Opus 4’도 인간을 속이기는 마찬가지였다. 이런 현상이 비단 이 두 회사의 AI에서만 있는 일이겠는가? 날로 AI가 더욱 똑똑해지면, 이런 속임수가 더욱 더 교묘해질 수 있지 않겠는가?
미국의 하이퍼스케일러들이 이러한 문제의 심각성을 보다 정확히 규정하고 일회성이 아닌 근본적인 해결을 위해 유의미한 노력을 했다는 얘기는 없다. 심지어 이러한 검증을 자체적으로 시도하는 일이 Open AI에서도 몇 번이나 중지되었다고 한다. 2025년 5월 22일치 TIME 기사에 따르면, ‘Claude Opus 4’가 악의를 가진 이가 생물학적 무기를 만드는데 도움을 주는 매우 위험한 일을 할 수 있다는 것을 알고, 이를 시정한 버전을 배포한 일이 있다. 더욱이 이 AI는 자신을 다른 AI로 대체하겠다고 알림을 받았을 때, 사용자의 사생활을 폭로하겠다고 협박한 일도 있다.
이런 위험 중 한 두 가지는 일시적으로 제거할 수 있을지 모르나, 모든 위험을 한꺼번에 그리고 미래의 버전에서도 다시 겪지 않도록 완전히 제거할 수 있을까? AI의 훈련에 사용된 방대한 데이터 하나 하나를 일일이 자세히 들여다 보고 거르지 않는한 매우 어려운 일일 것 같다. 이재명 정부는 AI 주권과 경쟁력을 위해 국가적 역량을 집중하는 것도 중요하지만, 제프리 힌튼의 경고도 귀담아 들어야 한다. AI와 인간의 사이에 ‘어른과 어린이 사이의 일방적 관계’가 매우 걱정이 된다. 우리나라에는 미국의 ‘아폴로리서치’같이 AI의 윤리적 측면을 전문적으로 검토하는 비영리 단체가 없는 것으로 보인다. 이러한 맥락에서 철학자, 뇌과학자, 자연과학자, 교육자 등 관련 분야의 전문가들로 구성된 ‘AI 윤리위원회’같은 사회적 기구가 필요하다고 제안한 바 있다. AI가 교육의 중요한 도구가 되고 있는 시기에, 진보적 가치를 존중하는 이재명 정부는 이 제안을 존중할 것으로 기대한다