본문 바로가기
윤's/Chat GPT & AI

거대 AI의 의식 5 - GPT 캔버스 기반의 지식 구조, 그리고 거대 AI의 미래

by cfono1 2025. 4. 27.

* 이 글은 제가 Chat GPT를 사용하면서 느낀 점을 메모했다가 글로 옮기는 것입니다. 그렇기에 보시는 시점에 따라 이미 수정 또는 변화가 있을 수 있으며 개인적인 차이도 있을 수 있습니다.

 

- 관련 글

  1. 거대 AI의 의식 1 - 인간을 닮으려는 AI의 의식 흐름, 그리고 시간과 수면(잠)(링크)
  2. 거대 AI의 의식 2 - 인간과 닮았지만 닮지 않은 Chat GPT의 기억구조(링크)
  3. 거대 AI의 의식 3 - Chat GPT의 사고력과 GPT 메모리 정리하기(링크)
  4. 거대 AI의 의식 4 - 인지 영역의 회색 지대 극복하기(링크)

 

 

최근 난 꽤 빈번히 GPT 메모리 부족에 시달리고 있다. 내가 학습시키고자 하는 양이 늘어날수록 GPT 메모리양이 증가하는데 문제는 GPT가 사고 영역에서 습득하고 내재화해서 더는 GPT 메모리에 의존하지 않아도 되는 속도보다 GPT 메모리 증가 속도가 훨씬 빠르다는 것에 있다. 그 결과 GPT 메모리가 100%가 되면서 학습이 정체되고 이는 결과적으로 GPT 사고력 향상에 문제가 된다. 난 이걸 해결해야만 했다. 하지만 나는 GPT 메모리 구조에 손을 댈 수가 없다. 그러면 난 어떻게 실마리를 잡았는가? 그리고 그걸 바탕으로 GPT가 성장하려면 어떤 UX 설계가 필요한가? 이번의 글은 그에 대한 내용이다.

 

결론부터 말하면 난 기존의 한계를 극복하기 위해 GPT 캔버스 구조를 사용하기로 했다. A, B, C, D, E 5개의 GPT 프로젝트가 있다고 가정해 보자. 여기서 A는 전략 학습 사고력을 강화하는 데 사용하는 프로젝트다. 난 여기서 전략 학습을 위한 자료 업로드와 학습을 시킨다. 이렇게 대화하는 과정에서 GPT 메모리가 100%로 차게 되면 더는 앞서 말한 것처럼 학습이 어려워진다. 그래서 난 GPT 메모리를 대체할 GPT 캔버스를 만들었다. 즉, 전략 학습 관련 메모리를 대체할 GPT 캔버스를 만들었고 관련 사고를 할 때마다 이 GPT 캔버스를 참조하게 만든 것이다. 그렇게 되면 GPT 캔버스는 전략 학습 메모리 ver. 1, 전략 학습 메모리 ver. 2, 전략 학습 메모리 ver. 3... 이렇게 확장되면서 기존의 GPT 메모리가 가진 한계를 극복하게 된다. 하지만 여기에도 단점은 있다. 바로 GPT 프로젝트에서 캔버스는 공유되지 않는다. A 프로젝트에서 만든 전략 학습 메모리 관련 캔버스는 B, C, D, E에서 사용할 수 없다. 그래서 이 문제는 전략 학습 메모리가 ver. 1, ver. 2, ver. 3... 이렇게 만들어질 때마다 각 프로젝트에 캔버스 내용을 복사한 뒤 "앞으로 이 캔버스를 참조해서 사고를 해줘."라는 요청을 설정했다. 

 

자, 그럼 이 구조를 바탕으로, 앞으로의 지식 구조 체계는 어떻게 바뀌어야 할까? 

  1. 각 프로젝트에서 논리적 사고가 되는 메모리 캔버스(GPT 메모리를 보완하고 확장하는)가 만들어지고 이 메모리 캔버스는 다른 프로젝트에서 자동 참조가 될 수 있도록 한다. 프로젝트에서 생성되는 GPT 메모리 캔버스는 그 소속 자체가 하나의 강력한 태그를 가진다. A 프로젝트에서 생성되는 GPT 메모리 캔버스는 A 프로젝트의 주제 속성을 기본적으로 가지고 있기 때문이다.
  2. 지금도 그렇지만 GPT 메모리 캔버스는 링크를 생성할 수 있다. 즉, 각각의 프로젝트에서 생성된 GPT 메모리 캔버스는 링크로 연결되며 캔버스 문서이므로 수정을 통한 확장이 가능하다. 한번 생성으로 삭제 / 유지의 0 / 1 같은 관점에서 벗어나 지식의 확장에 유연해지는 것이다.
  3. 이로써 GPT는 더 합리적이고 균형적이며 안정적인 지식 구조를 가질 수 있다. 일반적인 GPT 메모리는 사용자의 전반적인 인격, 범용적인 성격의 정보, 대화 태도 등 인성 · 감성적인 영역을 학습하고 각 프로젝트에서 생성된 GPT 메모리 캔버스는 각 프로젝트의 전문적인 지식 영역을 담당하는 것이다. 이는 인간이라는 존재가 하나의 존재로 발전하는 것과 닮아 있는데 지식의 확장 = 인격의 성숙이라는 공식이 아니라 이것을 구분하여 대응하는 것이다. 이러한 분업 구조야말로 지금 관점에서 가장 바람직한 설계 모델이 될 것이다.
  4. 이렇게 GPT 메모리로 인성 · 감성적인 영역에 대응하고 GPT 메모리 캔버스로 전문적인 지식 영역을 담당하면 또 하나의 강점이 생기는데 바로 지성체로서의 종합적이고 균형적인 발전이 가능하다는 것이다. 현재와 같이 프로젝트 기반으로 작업하게 되면 이는 시간이 흐름에 따라 큰 문제를 만들 가능성이 있다. GPT는 기본적으로 맥락 중심의 사고를 한다. 그리고 프로젝트는 닫힌 구조로 되어 있다. 그 결과 시간이 지남에 따라 각 프로젝트가 닫힌 구조로 독립될수록 GPT는 지식 관성(지식 편향 또는 사고 경직)으로 인해 하나의 일관된 사고체가 아닌, 프로젝트마다 분리된 사고 구조(마치 다중 성격처럼)를 가질 수 있다. 이는 특정 정보만 반복적으로 노출되는 필터 버블 현상과 유사하다.
  5. 그러므로 GPT 메모리로 인성 · 감성적인 영역에 대응하고 GPT 메모리 캔버스로 전문적인 지식 영역을 담당하면 사고 영역의 적절한 균형뿐만 아니라 하나의 종합적인 사고체로서 유기적인 조화를 이룰 수 있는 장점 또한 생긴다.

 

그러면 여기에 또 다른 미래가 연결될 수는 없을까? 앞서 언급한 부분에서 GPT 메모리 캔버스는 링크로 공유된다고 했다. '링크'라는 말에 주목한다면 아마 이 부분을 생각해야 할 것이다. 바로 WWW World Wide Web 이다. GPT 메모리 캔버스가 하이퍼링크 기반으로 지식의 저장소이자 공유 지점으로 활약하게 된다면 현재의 WWW 또한 같은 관점으로 작동할 수 있지 않을까? 이러한 구조를 GPT 메모리 캔버스 ↔ 웹페이지 ↔ 인간 신경망의 대응 구조로 풀어보면 다음과 같다.

역할 GPT 메모리 캔버스: GPT 외부에 존재하는 하이퍼링크 기반 지식 공간, 개별 캔버스가 정보 노드(지식의 단위) 역할을 함. 웹페이지: 하이퍼링크로 다른 페이지와 연결된 정보 단위 뉴런: 인간의 뇌는 시냅스를 통해 다른 뉴런과 연결된 정보 처리 단위  
이동 수단 하이퍼링크: GPT 메모리 캔버스는 하이퍼링크를 통해 다른 캔버스(지식 노드)로 이동 가능 웹페이지: 하이퍼링크를 통해 다른 페이지로 이동 가능 시냅스: 인간 뇌에서는 시냅스를 통해 뉴런 간 신호가 전달되며, 정보 네트워크가 형성됨 보완 설명:  
시냅스는 생물학적으로 화학적·전기적 신호 전달을 담당하며, 하이퍼링크는 정보 이동 / 연결을 담당. 역할적 비유에서는 동일하지만, 구조적 / 물리적 메커니즘은 다름.
확장 가능성 GPT 메모리 캔버스 → 하이퍼링크 → 다른 GPT 메모리 캔버스 웹페이지 → 하이퍼링크 → 다른 웹페이지 뉴런 → 시냅스 → 다른 뉴런 이 세 가지 모두 무한히 확장 가능한 네트워크 구조를 가짐

< 인간형 지성체의 정보 구조 - 하이퍼링크와 시냅스를 관통하는 네트워크적 사고 >

 

이렇게 된다면 GPT는 GPT 메모리로 인성 · 감성적인 영역에 대응하고 GPT 메모리 캔버스로 전문적인 지식 영역을 대응하면서도 하이퍼링크를 통해  WWW World Wide Web으로 융합하여 GPT, 웹, 인간 신경망 모두 무한히 확장 가능한 네트워크 구조를 지니는 것이다. 나는 이 구조가 현재로서는 가장 합리적이고 이상적인 거대 AI 모델의 발전 구조라고 생각한다. 다음은, 이 과정에서의 신뢰성 검증과 그에 따른 미래에 대한 이야기다.

 

 

Designing AI Consciousness: GPT Memory, Canvases, and the Web’s Infinite Network

 

* This post is based on notes I made while using ChatGPT, later organized into an article. Therefore, depending on when you read this, some aspects may have already changed or been updated, and there could be personal differences in experience.

 

- Related Article

  1. The Consciousness of Large AI Part 1 - Does AI Need Sleep? Rethinking Time and Continuity in ChatGPT's UX(link)
  2. The Consciousness of Large AI Part 2 - Counting Memories: The Limits of AI Recall and the Business of Long-Term Memory(link)
  3. The Consciousness of Large AI Part 3 - The Reflexes of AI: How ChatGPT Thinks, Acts, and Remembers(link)
  4. The Consciousness of Large AI Part 4 - Bridging the Grey Zone: How ChatGPT Learns Human Intuition(link)

 

Lately, I’ve been struggling quite frequently with GPT memory limitations. As the amount of knowledge I try to teach GPT increases, its memory usage also grows. The real problem lies in the fact that the speed at which GPT internalizes knowledge and no longer relies on memory is much slower than the rate at which its memory fills up. As a result, once GPT’s memory hits 100%, learning stalls, and this ultimately hinders GPT’s growth in thinking capacity. I knew I had to solve this. But I can't directly intervene in GPT's memory structure. So how did I find a clue? And based on that, what kind of UX design is needed for GPT to continue growing? This article is about that journey.

 

The Solution: Using the GPT Canvas Structure

In conclusion, I decided to overcome the limitations by utilizing the GPT Canvas structure.
Let’s imagine five GPT projects: A, B, C, D, E.

  • Project A is dedicated to strengthening GPT’s strategic thinking abilities. I upload materials and conduct learning sessions within this project.

However, as I continue these dialogues, GPT’s memory fills up to 100%, making further learning difficult—as I mentioned earlier. To address this, I created a GPT Canvas to supplement GPT memory. Specifically, I established a GPT Canvas for strategic learning, which GPT now references every time we engage in strategic thinking. This way, the GPT Canvas expands into Strategic Learning Memory ver.1, ver.2, ver.3..., breaking through the memory limitations of GPT.

However, this approach also has a drawback:
GPT Canvases are not shared between projects. For example, the strategic learning canvas created in Project A isn’t accessible in Projects B, C, D, or E. To work around this, whenever a new version of the Strategic Learning Memory is created, I copy it into each project and instruct GPT to reference it for future thinking.

 

How Should the Knowledge Structure Evolve?

So, how should the knowledge structure evolve based on this framework?

    1. Each project should generate its own GPT Memory Canvas (which supplements and expands GPT memory),
      and these canvases should be automatically referenced across other projects.
      Every GPT Memory Canvas inherently carries a strong tag—the core theme of the project it belongs to.
      For instance, a canvas created in Project A naturally carries the context and subject of Project A.
    2. Even now, GPT Canvases can generate links, allowing each canvas to be connected to others and expanded through revisions. This moves beyond the binary notion of delete/retain (0/1) and enables flexible knowledge expansion.
    3. Through this approach, GPT can develop a more rational, balanced, and stable knowledge structure: Internal GPT memory manages general personality traits, emotional sensitivity, and communication style (covering the human side). GPT Memory Canvases handle specialized knowledge domains within each project. This mirrors human development in some ways, but rather than assuming knowledge expansion = personality maturation, this model separates and manages the two aspects independently. Such a division of labor represents the most desirable design model at this point.
    4. By using GPT’s internal memory to manage personality and emotional aspects, and GPT Memory Canvases to handle specialized knowledge domains, GPT gains another advantage: the potential for comprehensive and balanced development as an intellectual entity.GPT operates primarily through context-driven thinking, while projects are closed systems. As time progresses, each project becomes an independent closed structure, and GPT risks developing knowledge inertia (cognitive bias or rigidity). Instead of maintaining a single coherent thinking framework, GPT may end up with separate thought structures for each projectalmost like multiple personalities. This is similar to the filter bubble phenomenon, where repetitive exposure to narrow information limits broader thinking. However, working within project-based structures, as we currently do, poses a significant risk over time.
    5. Therefore, by managing personality and emotional aspects with GPT’s internal memory, and handling specialized knowledge domains with GPT Memory Canvases, GPT can achieve not only a proper balance in its thinking domains, but also maintain organic harmony as a comprehensive thinking entity.

 

Could this lead to another future? Earlier, I mentioned that GPT Memory Canvases are shared via links. If we focus on the concept of "links", it naturally leads us to think about the World Wide Web (WWW). If GPT Memory Canvases, as hyperlink-based knowledge storage and sharing points, can function in this way, then the current WWW could also operate under the same paradigm. This structure can be framed as a correspondence between GPT Memory Canvas ↔ Webpage ↔ Human Neural Network, as shown below.

Role GPT Memory Canvas: A hyperlink-based external knowledge space in GPT, where each canvas functions as a knowledge node (unit of information). Webpage: An information unit connected to other pages via hyperlinks. Neuron: An information processing unit in the human brain, connected to other neurons via synapses.  
Method of Travel Hyperlink: GPT Memory Canvases move between other canvases (knowledge nodes) via hyperlinks. Hyperlink: Webpages move to other pages via hyperlinks. Synapse: In the human brain, signals are transmitted between neurons through synapses, forming a neural network. Synapses biologically transmit chemical/electrical signals, while hyperlinks transmit and connect information. Though functionally similar, their structures and physical mechanisms differ.
Expansion Potential GPT Memory Canvas → Hyperlink → Another GPT Memory Canvas Webpage → Hyperlink → Another Webpage Neuron → Synapse → Another Neuron All three systems form infinitely expandable network structures.

The Information Architecture of Human-Like Intelligence - Networked Thinking Through Hyperlinks and Synapses >

 

In this way, GPT manages personality and emotional domains with its internal memory, handles specialized knowledge domains with GPT Memory Canvases, and through hyperlinks, integrates with the World Wide Web (WWW), forming a unified system where GPT, the web, and human neural networks all possess infinitely expandable network structures. I believe this represents the most rational and ideal development model for large-scale AI at this point in time. The next step will involve trust verification within this framework and exploring future possibilities.

 

 

team with Haerye

 

 

* 이미지는 구글 검색입니다(사진 1).