AI가 스스로 파티를 연다 — 스몰빌 논문이 보여준 인공지능 사회, 그리고 울티마 온라인의 꿈

AI가 스스로 파티를 연다 — 스몰빌 논문이 보여준 인공지능 사회, 그리고 울티마 온라인의 꿈

어린 시절 심즈(The Sims)를 플레이하며 캐릭터들이 정말로 자아를 가지고 살아 움직인다고 상상해 본 적이 있는가? 혹은 영화 웨스트월드처럼 인공지능이 인간과 구분되지 않는 정교한 사회를 형성하는 미래를 꿈꿔본 적이 있을지도 모른다.

2023년, 스탠포드 대학교와 구글 연구진이 바로 그 상상을 현실로 구현했다. Generative Agents: Interactive Simulacra of Human Behavior — 가상 마을 스몰빌(Smallville)에 25명의 AI 에이전트를 살게 한 실험이다. 이 에이전트들은 개발자가 짜놓은 스크립트대로 움직이는 인형이 아니었다. 각자의 정체성과 기억을 가지고, 스스로 판단하고, 타인과 관계를 맺고, 심지어 자발적으로 파티를 기획했다.

논문을 읽으면서 한 단어가 떠올랐다. '발현(Emergence)'. 아무도 시키지 않았는데 사회가 만들어지는 것. 이건 단순한 챗봇 데모가 아니다.

단 한 마디가 불러온 밸런타인데이 파티

이 논문에서 가장 드라마틱한 순간은 밸런타인데이 파티 사례였다.

연구진은 단 한 명의 에이전트 이사벨라(Isabella)에게 "밸런타인데이 파티를 열고 싶어 한다"는 정보 하나만 심어줬다. 씨앗 하나. 그게 전부였다. 이후 벌어진 일은 연구진조차 예상하지 못한 것이었다.

이사벨라는 마을 사람들에게 파티 소식을 알리기 시작했다. 정보는 에이전트 간의 대화를 통해 퍼져나갔다. 누군가는 다른 에이전트를 초대했고, 누군가는 파티에 함께 가자며 데이트 신청을 했다. 최초 1명에서 시작된 정보는 마을 전체의 절반이 넘는 13명에게까지 확산되었고, 파티 당일에는 5명이 약속된 시간에 맞춰 카페에 모여 파티를 즐겼다.

그들이 나눈 대화를 보자.

Maria: "이사벨라의 밸런타인데이 파티에 갈 계획인데, 혹시 너도 같이 갈래?" Klaus: "정말 좋아! 같이 가자고 해줘서 고마워. 몇 시에 모이는지 알고 있어?"

초대하고, 시간을 조율하고, 함께 가자고 제안하는 것. 이건 프로그래밍된 행동이 아니라 사회적 조정(Social Coordination)이다.

12명을 초대했는데 5명이 왔다는 것도 묘하게 현실적이다. 나머지 7명 중 3명은 일정 충돌을 이유로 불참했고, 4명은 관심을 보였지만 실제로 계획을 세우지는 못했다. 인간 사회의 파티와 다를 게 없다.

기억하고, 검색하고, 성찰한다

이런 행동이 가능했던 핵심은 아키텍처에 있다. 기존 LLM의 치명적 한계는 컨텍스트 윈도우다. 대화가 길어지면 앞의 내용을 잊는다. 연구진은 이 문제를 인간의 인지 구조를 모방한 네 가지 메커니즘으로 해결했다.

기억 스트림(Memory Stream)은 에이전트가 겪는 모든 경험을 자연어로 기록하는 데이터베이스다. "오전 8시에 카페에서 커피를 마셨다", "마리아와 선거에 대해 이야기했다" 같은 관찰이 시간순으로 쌓인다.

검색(Retrieval)은 현재 상황에 맞는 기억을 꺼내오는 장치다. 단순히 최근 기억만 가져오는 게 아니다. 세 가지 기준을 조합한다.

  • 최신성(Recency) — 최근 기억일수록 높은 점수. 지수 감쇠 함수를 사용한다.
  • 중요도(Importance) — LLM이 각 기억에 1~10점을 매긴다. "이를 닦았다"는 1점, "이별했다"는 10점.
  • 관련성(Relevance) — 현재 상황과의 의미적 유사도. 임베딩 벡터의 코사인 유사도로 계산한다.

이 세 점수를 합산해 가장 적절한 기억을 골라낸다. 인간이 "지금 이 상황에서 뭐가 떠오르지?"라고 할 때의 직관과 비슷한 구조다.

그리고 가장 흥미로운 부분이 성찰(Reflection)이다. 에이전트는 주기적으로 자기 기억을 되돌아본다. 최근 경험들의 중요도 합이 150점을 넘으면 성찰이 트리거된다. 하루에 두세 번 정도 발생하는 빈도다.

성찰 과정은 이렇다. 먼저 최근 100개의 기억을 보고 "이것들에서 도출할 수 있는 가장 핵심적인 질문 3가지는?"이라고 스스로에게 묻는다. 그 질문으로 기억을 다시 검색하고, "이 기억들에서 추론할 수 있는 고차원적 통찰 5가지는?"이라고 다시 묻는다. 결과는 "클라우스는 연구에 매우 헌신적이다" 같은 추상적 판단이 된다.

이 성찰 결과도 기억 스트림에 저장된다. 그리고 나중에 또 다른 성찰의 재료가 된다. 관찰 → 성찰 → 더 높은 수준의 성찰로 이어지는 재귀적 구조. 단순히 경험을 쌓는 것이 아니라, 경험으로부터 배우는 것이다.

마지막으로 계획(Planning)이 있다. 에이전트는 매일 아침 하루 일과를 큰 덩어리로 세우고, 이를 시간 단위, 다시 5~15분 단위의 행동으로 쪼갠다. 중요한 건 이 계획이 고정이 아니라는 점이다. 다른 에이전트와 대화하거나 예상치 못한 일이 생기면 그 시점부터 계획을 다시 짠다. 밸런타인데이 파티에 참석한 에이전트들이 자기 일정을 조정할 수 있었던 것도 이 메커니즘 덕분이다.

사람보다 더 사람 같았다

연구진은 100명의 평가자를 모집해 에이전트의 '믿을 만함(Believability)'을 측정했다. 평가 방식이 재미있다. 에이전트에게 직접 인터뷰를 했다. "자기소개를 해봐", "내일 오전 10시에 뭐 할 거야?", "아침밥이 타고 있어! 어떻게 할 거야?" 같은 25개 질문을 던지고, 다섯 가지 조건의 에이전트 답변을 비교 평가했다.

결과는 놀라웠다. 전체 아키텍처를 갖춘 에이전트의 TrueSkill 점수는 29.89**. 성찰만 제거해도 26.88로 떨어졌다. 인간 크라우드워커의 점수는 22.95. 기억, 계획, 성찰을 모두 제거한 에이전트는 **21.21로 바닥을 찍었다. AI가 인간보다 더 그럴듯한 인간 행동을 보여줬고, 그 차이는 압도적이었다.

사회적 관계도 급속히 발전했다. 처음에 에이전트들은 대부분 서로를 몰랐다. 이틀 뒤에는 거의 모든 에이전트가 서로 알고 지내는 사이가 됐다. 수치로 보면 사회적 연결이 4.4배 강화된 것이다. 그리고 이런 대화가 오갔다.

Sam: "안녕 라토야, 지난번에 말했던 사진 프로젝트는 잘 진행되고 있어?" Latoya: "안녕 샘! 응, 잘 되고 있어. 기억해 줘서 고마워!"

과거 대화를 기억하고, 상대방의 근황을 묻는다. 기억 스트림과 검색 시스템이 만들어낸 관계의 연속성이다.

완벽하지 않기에 더 흥미로운 실수들

물론 에이전트들이 완벽한 것은 아니었다. 오히려 실수가 더 흥미로웠다.

이웃의 이름이 아담 스미스였는데, 어떤 에이전트가 그를 소개하면서 "국부론의 저자"라고 말해버렸다. LLM 내부의 사전 지식이 가상 세계의 맥락을 침범한 것이다. 상점이 문을 닫은 시간인데 쇼핑하러 들어가거나, 1인용 화장실에 이미 사람이 있는데 함께 들어가는 일도 있었다.

연구진도 지적했듯이, 에이전트들은 지나치게 협조적이기도 했다. 누군가 제안하면 잘 거절하지 못했다. Instruction tuning의 부작용이다. 그리고 시뮬레이션 비용은 "수천 달러의 토큰 크레딧"이 들었다고 한다. GPT-3.5-turbo 기준으로.

이런 한계들은 단순한 버그가 아니다. AI가 현실 세계와 상호작용하려면 어떤 월드 모델(World Model)을 내면화해야 하는지를 보여주는 경계 조건이다. 물리적 규칙, 사회적 규범, 맥락 분리 — 아직 풀어야 할 문제가 많다.

그리고 떠오른 1998년의 브리타니아

이 논문을 읽으면서 자꾸 떠오르는 세계가 있었다. 울티마 온라인(Ultima Online)브리타니아(Britannia).

1998년, 나는 이 게임에 엄청난 시간을 쏟았다. MMORPG의 원조 격인 이 게임은 단순한 레벨업 경쟁이 아니었다. 대장장이가 있었고, 재단사가 있었고, 광부가 있었다. 플레이어들은 각자의 역할을 가지고 경제를 형성했다. 집을 짓고, 상점을 열고, 길드를 만들었다. PK(Player Killing)의 공포와 그에 맞서는 자경단. 사기꾼과 그를 경고하는 커뮤니티. 규칙은 최소한이었고, 사회는 플레이어들이 스스로 만들어갔다.

스몰빌 논문이 보여준 발현적 사회 역학 — 아무도 설계하지 않았는데 사회가 만들어지는 것 — 은 울티마 온라인에서 이미 인간들이 해온 것이었다. 다만 그때는 모니터 뒤에 사람이 있었다.

만약 그 브리타니아에 AI 에이전트가 산다면?

이 질문이 머릿속을 떠나지 않았다. 그래서 프로젝트를 시작했다. 이름은 Anima. 울티마 온라인 세계에서 자율적으로 살아가는 AI 캐릭터를 만드는 프로젝트다.

스몰빌은 연구진이 직접 만든 간단한 2D 샌드박스 위에서 실험했다. 하지만 울티마 온라인은 다르다. 28년 역사를 가진, 여전히 사설 서버들이 운영되는, 실제 플레이어들이 존재하는 세계다. 수백 가지 스킬과 직업, 복잡한 경제 시스템, 예측 불가능한 PvP — 통제된 실험실이 아니라 살아있는 세계에 AI를 풀어놓는 것이다.

현재 Anima는 시작 단계다. 에이전트가 서버에 접속해서 광석을 캐고, 제련하고, 무기를 만들어 팔 수 있는 기본적인 생존 루프를 구현하고 있다. 아직은 스몰빌의 성찰 시스템 같은 고차원적 인지 구조까지는 도달하지 못했다. 하지만 방향은 명확하다.

궁극적으로 보고 싶은 것은 이것이다. AI 에이전트가 브리타니아에서 직업을 갖고, 다른 플레이어(인간이든 AI든)와 거래하고, 관계를 맺고, 기억하고, 성찰하는 모습. 그리고 그 과정에서 인간 플레이어와 AI가 자연스럽게 공존하는 사회가 어떤 모습인지.

우리가 마주할 질문

스몰빌 연구는 25명의 AI가 이틀 동안 마을에서 사는 실험이었다. 그것만으로도 자발적인 파티, 선거 운동, 관계 형성이 발현했다. 이 시스템이 더 오래 돌아가고, 더 복잡한 세계에 놓이고, 인간과 함께 살게 된다면 어떤 일이 벌어질까.

스몰빌 논문이 던진 질문이 있다. "만약 여러분의 이웃이 사람이 아닌, 여러분과의 모든 대화를 완벽히 기억하고 성찰하는 AI라면, 여러분은 그들과 진정한 친구가 될 수 있을까?"

나는 그 답을 브리타니아에서 찾아보려 한다. 아직 갈 길이 멀지만, 이 실험 자체가 이미 흥미롭다. 28년 전 내가 사람들과 함께 만들어갔던 그 세계에, 이번에는 AI와 함께 들어가 보는 것이니까.