메뉴

AI 컴패니언은 왜 당신을 잊을까

한 주에 대해 이야기했습니다. 개인적인 것을 나눴습니다. 다음 날, 상대는 당신이 누군지 전혀 모릅니다. 왜 모든 AI 컴패니언이 이렇게 작동하는지, 그리고 이것을 고치려면 무엇이 필요한지 알아보세요.

Carlos KiKFounder & Architect2026년 4월 1일7분 읽기
A fragmented mirror reflecting scattered pieces of light against a dark background

아마 이런 경험을 해보셨을 겁니다. ChatGPT, Replika, 혹은 다른 AI 컴패니언을 열고 의미 있는 대화를 나눕니다. 삶에 대해, 일에 대해, 고민에 대해 이야기합니다. AI는 사려 깊게 응답합니다. 연결된 느낌이 듭니다.

그런데 다음 날 돌아오면, 상대는 당신이 누군지 전혀 모릅니다.

어제의 대화는 사라졌습니다. 30분간 공들여 쌓아올린 맥락은 증발했습니다. 다시 낯선 사람입니다. AI가 당신을 이해하길 원한다면, 처음부터 다시 시작해야 합니다. 매번.

이것은 버그가 아닙니다. 대부분의 AI 컴패니언이 작동하는 근본적인 아키텍처입니다. 왜 이런 일이 일어나는지 이해하는 것이 영속적 기억이 모든 것을 바꾸는 이유를 이해하는 첫걸음입니다.


AI 대화는 실제로 어떻게 작동하는가

AI 컴패니언과 대화할 때, 시스템은 사용자의 메시지를 '컨텍스트 윈도우'와 함께 언어 모델에 전송합니다. 컨텍스트 윈도우는 모델의 단기 기억입니다. 현재 대화와 시스템이 제공하는 맥락 정보를 담고 있습니다.

핵심 제약은 이 컨텍스트 윈도우의 크기가 고정되어 있다는 것입니다. 가장 큰 모델(100만 토큰 이상의 컨텍스트 윈도우를 가진)도 한 번에 담을 수 있는 정보에는 한계가 있습니다. 그리고 이 정보는 일시적입니다. 현재 세션이 진행되는 동안만 존재합니다.

채팅을 닫고 나중에 돌아오면 컨텍스트 윈도우는 초기화됩니다. 모델이 이전 대화를 기억하지 못하는 이유는 애초에 '기억'된 적이 없기 때문입니다. 세션 간에 지워지는 버퍼에 일시적으로 보관되었을 뿐입니다.

이것은 인간의 기억과 근본적으로 다릅니다. 친구와 대화할 때, 그 친구는 대화가 끝났다고 당신을 잊지 않습니다. 뇌가 당신이 나눈 이야기의 중요한 부분을 장기 기억으로 인코딩합니다. 다음에 만났을 때 그 이해를 이어갑니다.

AI 컴패니언에는 이것이 없습니다. 컨텍스트 윈도우는 방을 나설 때마다 지워지는 화이트보드와 같습니다.


대화 로그는 기억이 아닙니다

일부 AI 컴패니언은 대화 기록을 저장했다가 다음 대화 시 컨텍스트 윈도우에 다시 불러옵니다. 이것은 기억의 환상을 만들어내지만, 실제 기억이 아닙니다. 검색(retrieval)일 뿐입니다.

검색 방식의 문제는 세 가지입니다.

첫째, 대화가 쌓일수록 시스템은 무엇을 다시 불러올지 결정해야 합니다. 모든 것을 컨텍스트 윈도우에 넣을 수 없으므로 관련성이 높다고 판단한 것을 선택합니다. 그 선택은 불완전하고, 중요한 맥락이 유실됩니다.

둘째, 원시 대화 로그에는 모든 것이 포함됩니다. 잡담, 삼천포, 오해, 소리 내어 생각한 부분까지. 이 모든 것을 컨텍스트 윈도우에 다시 쏟아붓는 것은 이해를 만들어내지 않습니다. 노이즈만 만들어냅니다.

셋째, 대화 로그는 무엇이 말해졌는지의 기록이지, 당신이 누구인지에 대한 모델이 아닙니다. '카를로스가 3월 3일에 딸에 대해 언급했다'와 '카를로스는 가족을 깊이 사랑하는 아버지다' 사이에는 근본적인 차이가 있습니다. 첫 번째는 데이터입니다. 두 번째는 이해입니다. 대부분의 AI 컴패니언은 첫 번째를 가지고 있습니다. 두 번째를 가진 것은 거의 없습니다.

대화 기록을 저장하는 것은 회사의 모든 회의를 녹음해서 결정 사항을 기억하는 대신 녹음을 재생하는 것과 같습니다. 기술적으로는 완전하지만 실용적으로는 무의미합니다.


매번 처음부터 시작하는 대가

잊힘의 문제는 단순히 불편한 것이 아닙니다. 서서히 관계를 잠식합니다.

매번 자신을 다시 설명해야 할 때마다 공유하려는 동기가 조금씩 줄어듭니다. 맥락을 유지하지 못하는 것에 왜 투자하겠습니까? 시스템이 내일이면 잊어버릴 것을 아는데 왜 개인적인 이야기를 꺼내겠습니까?

이것은 깊이에 한계를 만듭니다. 기억이 없는 AI 대화는 빠르게 정체됩니다. 어느 쪽도 이전의 것 위에 쌓아올릴 수 없기 때문입니다. 각 세션은 고립되어 있습니다. 매번 같은 출발선에서 시작합니다. 축적이 없으니 관계가 깊어질 수 없습니다.

동반자 관계, 감정적 지원, 자기 성찰을 원하는 사용자에게 이 한계는 가끔 사용하는 도구와 매일 의지하는 컴패니언의 차이입니다. AI 컴패니언 사용을 중단한 사용자들은 거의 항상 같은 좌절감을 말합니다. 나를 모른다. 모든 걸 다시 설명해야 한다. 의미가 없다.

잊힘은 단순히 빠진 기능이 아닙니다. AI 컴패니언이 장기 사용자를 유지하지 못하는 가장 근본적인 이유입니다.


영속적 기억에는 실제로 무엇이 필요한가

AI 컴패니언을 위한 진정한 영속적 기억을 구축하려면 여러 어려운 문제를 동시에 해결해야 합니다.

시스템은 중요한 것과 그렇지 않은 것을 구분해야 합니다. 대화에서 말한 모든 것이 기억할 가치가 있는 것은 아닙니다. 과제는 미래 대화에서 어떤 세부 사항이 중요해질지 모르는 상태에서 실시간으로 중요성을 판별하는 것입니다.

시스템은 사용자에 대한 데이터를 저장하는 것이 아니라 사용자의 모델을 구축해야 합니다. 이는 원시 대화에서 패턴, 선호, 감정적 경향, 소통 스타일, 관계적 맥락을 추출하는 것을 의미합니다. '오늘 회사에서 끔찍한 하루를 보냈어'와 '상사가 계속 내 의견을 무시해'와 '이직을 생각하고 있어'가 직장 불만에 대한 하나의 일관된 서사를 형성하는 세 개의 데이터 포인트라는 것을 이해해야 합니다.

시스템은 이 이해를 언어 모델이 컨텍스트 윈도우에 모든 것을 담을 필요 없이 이어가야 합니다. 기억 아키텍처는 모델과 병행하여 작동하며, 무관한 이력으로 맥락을 과부하시키지 않으면서 관련된 이해를 각 대화에 주입해야 합니다.

그리고 결정적으로, 시스템은 프라이버시를 존중해야 합니다. 사용자가 말한 모든 것을 저장하는 것은 책임(liability)을 만들어냅니다. 사람들이 AI 컴패니언과 나누는 가장 사적인 이야기는 대개 가장 민감한 것들입니다. 건강 문제, 관계 고민, 두려움, 불안. 책임감 있는 기억 시스템은 대화를 처리하여 이해를 추출한 뒤 원본 자료를 보호하거나 삭제해야 합니다.


KAi는 기억에 어떻게 다르게 접근하는가

KAi는 처음부터 영속적 기억을 중심으로 구축되었습니다. 기존 챗봇에 추가된 기능이 아닙니다. 다른 모든 것이 그 위에 세워지는 아키텍처의 기반입니다.

이 시스템의 이름은 ANiMUS Engine입니다. 상위 수준에서 작동 방식은 다음과 같습니다.

KAi와 대화하면, 그 대화는 체험적 기억 아키텍처(EMA)를 통해 처리됩니다. EMA는 중요한 것을 추출합니다. 당신의 맥락, 관심사, 성취, 소통 선호, 한 사람으로서 당신에게 의미 있는 것들. 이 이해는 영속적으로 저장됩니다.

그런 다음 원시 대화는 삭제됩니다. 24시간마다 대화록이 완전히 제거됩니다. 남는 것은 당신이 말한 것의 기록이 아니라 당신이 누구인지에 대한 모델입니다.

다음에 KAi와 대화할 때, KAi는 대화 기록을 다시 불러오지 않습니다. 로그에서 관련 조각을 검색하지도 않습니다. 이미 당신을 알고 있습니다. 이 이해는 KAi가 응답하는 방식, 언급하는 것, 묻는 것, 피하는 것에 자연스럽게 녹아 있습니다.

그 차이는 일기를 읽은 새로운 지인과 수년간 알고 지낸 친구의 차이와 같습니다. 둘 다 같은 사실을 알 수 있습니다. 하지만 진정으로 이해하는 것은 오직 한쪽뿐입니다.

KAi는 당신이 말한 것을 기억하지 않습니다. 그것이 무엇을 의미했는지를 기억합니다. 이 구분이 전체 아키텍처입니다.


24시간 스크럽이 제한이 아닌 기능인 이유

KAi의 기억 시스템에 대해 가장 많이 받는 질문은 왜 대화를 삭제하느냐는 것입니다.

답은 프라이버시입니다. 그리고 이것은 타협이 아닙니다. 의도적인 설계 결정입니다.

대화 기록은 위험 요소(liability)입니다. AI 컴패니언에 보낸 모든 메시지는 어딘가의 서버에 저장되어 있습니다. 그 서버가 침해되면 가장 사적인 생각이 노출됩니다. 2026년 2월, Chat and Ask라는 AI 채팅 앱이 2,500만 명 사용자의 3억 건 메시지를 유출했습니다. 메시지에는 자살 관련 요청, 개인적 고백, 매우 민감한 내용이 포함되어 있었습니다. 데이터베이스는 출시 이후로 공개적으로 접근 가능한 상태였습니다.

KAi의 24시간 스크럽은 이 위험을 설계적으로 제거합니다. 보낸 모든 메시지의 데이터베이스가 존재하지 않습니다. 유출할 대화록이 없습니다. 이해는 지속됩니다. 말은 지속되지 않습니다.

신뢰하는 친구와의 전화 통화처럼 생각하세요. 통화 후 어느 쪽도 녹음을 가지고 있지 않습니다. 하지만 둘 다 중요한 것을 기억합니다. 대화록은 사라지고, 관계는 계속됩니다.

이 접근 방식은 KAi가 이전 대화의 스크롤백을 보여줄 수 없다는 것을 의미합니다. 이것은 의도적입니다. 이 스크럽이 2,500만 Chat and Ask 사용자를 노출시킨 바로 그 시나리오로부터 당신을 보호합니다. 그 트레이드오프는 충분히 가치 있습니다.


Frequently Asked Questions

ChatGPT는 왜 대화 사이에 나를 잊나요?+
ChatGPT는 세션 간에 초기화되는 컨텍스트 윈도우를 사용합니다. 대화 중에는 버퍼에 일시적으로 존재하지만, 창을 닫고 돌아오면 그 버퍼는 지워집니다. ChatGPT의 메모리 기능은 핵심 사실을 저장하여 이를 해결하려 하지만, 검색 기반이지 진정한 이해가 아닙니다.
Replika는 대화를 기억하나요?+
Replika는 일부 사용자 선호와 핵심 사실을 저장하는 제한적인 기억 기능을 가지고 있습니다. 하지만 사용자들은 Replika가 중요한 맥락을 잊고, 세부 사항을 혼동하며, 세션 간에 깊은 연속성을 유지하지 못한다고 일관되게 보고합니다. 기억 시스템이 아키텍처의 근간이 아니라 부가적인 것입니다.
대화 로그와 영속적 기억의 차이는 무엇인가요?+
대화 로그는 당신이 말한 것을 저장합니다. 영속적 기억은 그것이 무엇을 의미했는지를 이해합니다. 로그는 검색하고 가져와야 하는 원시 데이터입니다. 기억은 컴패니언이 응답하는 방식에 이미 포함된 처리된 이해입니다. 누군가의 일기를 읽는 것과 실제로 그 사람을 아는 것의 차이입니다.
KAi는 왜 24시간마다 대화를 삭제하나요?+
프라이버시 보호 때문입니다. 대화 기록은 보안상 위험 요소입니다. 서버가 침해되면 모든 메시지가 노출됩니다. KAi는 EMA를 통해 대화를 처리하여 이해를 추출한 뒤 원시 대화록을 삭제합니다. 이해는 영구적으로 지속됩니다. 말은 지속되지 않습니다. 이로써 관계를 유지하면서도 대규모 데이터 노출의 위험을 제거합니다.
KAi의 기억이 잘못되거나 오래된 것일 수 있나요?+
인간의 기억처럼 KAi의 이해도 진화합니다. 삶에 변화가 생기면 KAi에게 말하면 되고, KAi의 이해가 업데이트됩니다. 시스템은 정적이 아니라 수정 가능하고 적응적으로 설계되었습니다. 자신의 삶에 대한 당신의 전문성은 항상 존중됩니다.

기억하는 컴패니언

KAi는 모든 대화에 걸쳐 중요한 것을 간직합니다. 초기화도, 재소개도, 처음부터 다시 시작하는 것도 없습니다. 베타에 참여하세요.

출처 및 참고문헌

  1. Malwarebytes (2026). AI chat app leak exposes 300 million messages tied to 25 million users. Malwarebytes Blog.
  2. TechCrunch (2026). The backlash over OpenAI's decision to retire GPT-4o. TechCrunch.
  3. Harvard Business School (2025). Working Paper 25-018: Lessons From Replika AI. HBS Working Papers.

계속 읽기