* 이 글은 제가 Chat GPT를 사용하면서 느낀 점을 메모했다가 글로 옮기는 것입니다. 그렇기에 보시는 시점에 따라 이미 수정 또는 변화가 있을 수 있으며 개인적인 차이도 있을 수 있습니다.
- 관련 글
- 거대 AI의 의식 1 - 인간을 닮으려는 AI의 의식 흐름, 그리고 시간과 수면(잠)(링크)
- 거대 AI의 의식 2 - 인간과 닮았지만 닮지 않은 Chat GPT의 기억구조(링크)
- 거대 AI의 의식 3 - Chat GPT의 사고력과 GPT 메모리 정리하기(링크)
- 거대 AI의 의식 4 - 인지 영역의 회색 지대 극복하기(링크)
- 거대 AI의 의식 5 - GPT 캔버스 기반의 지식 구조, 그리고 거대 AI의 미래(링크)
- 거대 AI의 의식 6 - 거대 AI의 신뢰성 확보와 가상 화폐의 미래(링크)
- 거대 AI의 의식 7 - 거대 AI의 기본 조건, 인류의 절댓값 인식 공유(링크)
거대 AI 서비스에서 신뢰성 확보는 정말 중요하다. 얼마큼 믿을 수 있느냐에 따라 사회적 수용도가 달라지고 이 달라진 수용성이 영향력을 만들어낸다. 신뢰가 결여된 상태에서는 영향력을 기대하기 어렵다. 나는 지난 글 거대 AI의 의식 6 - 거대 AI의 신뢰성 확보와 가상 화폐의 미래(링크)에서 신뢰성 확보를 위한 방법을 말했다. 이번 글은 그 연장선에 있다.
과거 인류가 천재지변을 무서워했던 이유는 뭘까? 천재지변의 파괴적인 영향력 때문에? 물론 그게 가장 큰 이유가 될 것이다. 하지만 그것만이 전부는 아니다. 지금도 천재지변의 파괴적인 영향력은 무섭지만, 과거만큼 절대적이지는 않다. 나는 그 이유가 시각화에 있다고 본다. 즉, 시각화를 통한 이해가 막연한 두려움을 이해의 영역으로 끌고 왔기 때문이다. 최초의 천재지변은 그야말로 '신의 뜻'이었다. 이해가 안 갔기 때문이다. 이해할 수 없으니 설명할 수도 없다. 하지만 대대손손 내려오는 경험의 누적은 패턴을 찾아냈고 조금이나마 이해는 안 되어도 대비는 가능한 수준이 되었다. 이후에도 발전하는 과학의 발전은 결국 이 단계에 이르렀다. 막강한 컴퓨팅 파워로 기후에 대한 시뮬레이션을 마치 진짜 기후가 변하는 것처럼 시각화하는 것이다. 이 시각화로 인해 인류는 변화를 극적으로 이해할 수 있게 되었다. 막연히 어디에 비가 오면 어떻게 변하고 무슨 피해가 발생한다는 것을 언어로 이해하는 것이 아니라 눈으로 보게 되는 것이다. 압도적인 시각화는 더 많은 참여자를 문제 해결의 영역으로 끌어들이고 그 결과 더 나은 해답으로 가는 길을 만든다.
- 현재 AI의 의사결정을 설명하기 위한 다양한 시도가 이루어지고 있습니다. Google의 TCAV(Test Concept Activation Vectors)나 LIME(Local Interpretable Model-agnostic Explanations) 같은 XAI(Explainable AI) 프레임워크는 복잡한 AI 모델의 결정을 사람의 언어로 설명하려는 대표적인 시도입니다. 그러나 이러한 방식도 여전히 고차원적인 수학적 모델에 대한 부분적 설명에 머무르고 있는 것이 현실입니다. 예를 들어 LIME은 입력 변수의 민감도 기반으로 국지적 설명을 제공하지만, 이는 전체적인 맥락을 설명하지 못하는 한계가 있습니다.
거대 AI 모델도 천재지변과 다르지 않을 것이다. 이미 거대 AI 모델의 복잡성은 인간이 이해하기가 어려운 수준이다. 만약 이런 거대 AI 모델의 정보 근거 시각화가 매트릭스 코드와 같이 구현된다면 인류는 AI의 의견을 제대로 이해하고 받아들일 수 있을까? 지금 컴퓨터 코드를 읽고 이해하는 사람의 수를 생각해 볼 때 이건 말이 도저히 소통의 방법이라고 생각할 수 없을 것이다. 그런 컴퓨터 코드와 같은 시각화로는 사회적 수용성이 낮을 수밖에 없다.
결국 우리가 거대 AI 모델을 제대로 이해하기 위해서는 우리가 이해할 수 있는 논리 구조로 시각화된 UI가 필요하다. 그래야 더 많은 사용자를 거대 AI 모델의 영역으로 끌어들일 수 있고 사회적 수용성이 높아질 수 있다. 난 이것을 XYZ의 3차원 공간 접근으로 풀어낼 수 있다고 본다.
이 관점의 시작은 이전 글 Chat GPT가 나아가야 할 지식 구조는?(링크)의 '살얼음 아래 물고기들'에서 왔음을 밝힌다.
- XY로 만들어 내는 면적은 지식의 범위다. 이 면적이 넓을수록 다양한 지식이 있다는 뜻이 된다. 또한 XY 모두 같은 거리를 가지므로 다른 AI, 또는 Chat GPT의 프로젝트 같은 범위의 면적 비교만으로도 지식의 규모를 가늠할 수 있다.
- Z축은 깊이로 여기서는 A, B, C로 되어 있다. 가장 넓은 범위 A는 지식의 가장 근본적인 구분을, 그다음 범위 B는 핵심 카테고리를, 가장 좁은 범위 C는 핵심 지식이 놓여 있는 구간이다. 물론, 이건 상대적인 것으로 A, B, C의 3단계가 아니라 A, B, C, D, E의 5단계가 될 수도 있다. 이런 지식의 범위는 마치 7단계를 거쳐 계(Kingdom): 동물계(Animalia) - 문(Phylum): 척삭동물문(Chordata) - 강(Class): 포유강(Mammalia) - 목(Order): 영장목(Primates) - 과(Family): 사람과(Hominidae) - 속(Genus): 사람속(Homo) - 종(Species): 현생 인류-(Homo sapiens) 의 층을 가지는 것과 같다. 이 비유가 어렵다면 도서관은 어떨까? 도서관에서 다양한 주제와 관점을 가진 책들이 존재하지만, 분류 체계에 따라 일정한 기준으로 정리되듯, 정보 역시 범위와 깊이에 따라 구조적 합의를 이룬 계층 안에서 분류된다. 이러한 구조적 분류는 다양한 관점 속에서도 정보를 일관되고 체계적으로 이해하고 탐색할 수 있게 돕는다.
이렇게 지식이 범위와 깊이에 따라 XYZ의 좌표로 설정되면 이제 그 지식의 이동을 보여주면 된다. 마치 영화 Tron: Legacy에서 빛나는 라이트 바이크가 직선 경로를 선명한 빛의 궤적을 남기며 질주하듯, 정보의 이동 경로 역시 XYZ 좌표계 위에서 명확한 직선 경로로 시각화된다면, AI의 판단 논리를 더 직관적으로 이해할 수 있을 것이다. 이러한 시각적 이동 경로는 정보가 어디서 시작해 어떤 과정을 거쳐 도달했는지 명확히 보여주며, 사용자로 하여금 AI의 판단 근거와 논리적 이동을 직관적으로 이해하게 만든다.
역할 | GPT 메모리 캔버스: GPT 외부에 존재하는 하이퍼링크 기반 지식 공간, 개별 캔버스가 정보 노드(지식의 단위) 역할을 함. | 웹페이지: 하이퍼링크로 다른 페이지와 연결된 정보 단위 | 뉴런: 인간의 뇌는 시냅스를 통해 다른 뉴런과 연결된 정보 처리 단위 | |
이동 수단 | 하이퍼링크: GPT 메모리 캔버스는 하이퍼링크를 통해 다른 캔버스(지식 노드)로 이동 가능 | 웹페이지: 하이퍼링크를 통해 다른 페이지로 이동 가능 | 시냅스: 인간 뇌에서는 시냅스를 통해 뉴런 간 신호가 전달되며, 정보 네트워크가 형성됨 | 보완 설명: 시냅스는 생물학적으로 화학적·전기적 신호 전달을 담당하며, 하이퍼링크는 정보 이동 / 연결을 담당. 역할 적 비유에서는 동일하지만, 구조적 / 물리적 메커니즘은 다름. |
확장 가능성 | GPT 메모리 캔버스 → 하이퍼링크 → 다른 GPT 메모리 캔버스 | 웹페이지 → 하이퍼링크 → 다른 웹페이지 | 뉴런 → 시냅스 → 다른 뉴런 | 이 세 가지 모두 무한히 확장할 수 있는 네트워크 구조를 가짐 |
< 인간형 지성체의 정보 구조 - 하이퍼링크와 시냅스를 관통하는 네트워크적 사고 >
* 비유적 유사성은 있지만, 시냅스는 생물학적 전기·화학 신호 전달 방식이며, 하이퍼링크는 정적인 명시적 연결이다. 실제 정보 전달 구조는 매우 다릅니다.
XYZ의 좌표에 존재하는 것은 정보를 가진 노드로서 GPT 메모리 캔버스이자, 웹페이지이며 뉴런이다. 우리가 알고자 하는 정보에 대해 AI에 질문하면 AI는 각 프로젝트의 지식 영역에 있는 XYZ 그리드 위에서 하이퍼링크와 시냅스처럼 이동하여 각 노드( GPT 메모리 캔버스이자 웹페이지)에 도달하게 되고 그곳의 정보를 활용하여 우리에게 답한다. 이런 UI라면 우리는 정보의 출처를 온전히 이해할 수 있다. 단순히 출처를 알려주는 수준이 아니라 전체적인 지식의 규모와 깊이 수준에서 어떤 위치에 있는 정보인지를 시각화하여 알 수 있는 것이다. 이 정보의 변화는 블록체인으로 추적되며, 변경 이력의 투명성과 위변조 방지를 통해 정보 신뢰성을 기술적으로 보장한다.
"그러므로 그러하다."
사람에게 이런 식의 설명을 수용하기는 쉽지 않다. 특히나 잘 모르는 분야에 대해서는 더욱 그렇다. 그렇기에 우리의 인지하지 못하는 AI의 인식에서 이뤄지는 것들의 설명은 더욱 중요하고 시각화는 사회적 신뢰성을 획득하기 위한 큰 조건이다. 복잡함을 단순화하고, 이해할 수 없는 것을 이해할 수 있는 영역으로 끌어오는 것. 이것이 바로 거대 AI가 인류와 함께하기 위한 첫걸음일 것이다.
Visualizing Trust: The First Step Toward Coexistence with Giant AI
* This post is based on notes I made while using ChatGPT, later organized into an article. Therefore, depending on when you read this, some aspects may have already changed or been updated, and there could be personal differences in experience.
- Related Article
- The Consciousness of Large AI Part 1 - Does AI Need Sleep? Rethinking Time and Continuity in ChatGPT's UX(link)
- The Consciousness of Large AI Part 2 - Counting Memories: The Limits of AI Recall and the Business of Long-Term Memory(link)
- The Consciousness of Large AI Part 3 - The Reflexes of AI: How ChatGPT Thinks, Acts, and Remembers(link)
- The Consciousness of Large AI Part 4 - Bridging the Grey Zone: How ChatGPT Learns Human Intuition(link)
- The Consciousness of Large AI Part 5 - Designing AI Consciousness: GPT Memory, Canvases, and the Web’s Infinite Network(link)
- The Consciousness of Large AI Part 6 - Blockchain, Hyperlinks, and the AI Trust Structure Designed by Nations (link)
- The Consciousness of Large AI Part 7 - The Absolute Constants of Humanity: A Forgotten Lesson for Giant AI(link)
Ensuring trust in large-scale AI services is critically important. The extent to which these systems are trusted directly influences their social acceptance, and this changing level of acceptance generates their societal impact. Without trust, it is difficult to expect any meaningful influence. In my previous post, The Consciousness of Large AI Part 6 - Blockchain, Hyperlinks, and the AI Trust Structure Designed by Nations(link), I discussed ways to establish such trust. This article is a continuation of that exploration.
Why were ancient humans so afraid of natural disasters? Was it simply because of their devastating impact? While that was certainly a major factor, it wasn’t the whole story. Even today, the destructive power of natural disasters is terrifying, but it no longer holds the absolute authority it once did. I believe the reason lies in visualization. Through visualization, vague fears have been transformed into something comprehensible. In ancient times, natural disasters were perceived as nothing less than the "will of the gods." They couldn’t understand them, and what cannot be understood cannot be explained. Yet, through generations of accumulated experience, patterns were gradually discovered. Even without fully understanding them, people learned to prepare. Scientific advancements eventually brought us to a new stage—where powerful computing capabilities allow us to simulate climate changes almost as if they were happening in reality. This visualization enables humanity to grasp change on a dramatic level. Instead of merely hearing that rain will fall in one place and cause damage elsewhere, we can now see it with our own eyes. Such overwhelming visualization draws more people into the realm of problem-solving, ultimately paving the way toward better solutions.
- Currently, various efforts are being made to explain AI decision-making processes. Frameworks like Google’s TCAV (Test Concept Activation Vectors) and LIME (Local Interpretable Model-Agnostic Explanations) are representative attempts within the field of Explainable AI (XAI) to translate complex AI model decisions into human language. However, these methods still remain partial explanations of highly advanced mathematical models. For instance, LIME provides localized explanations based on the sensitivity of input variables, but it falls short of offering a comprehensive understanding of the overall context.
Giant AI models are no different from natural disasters in this regard. Their complexity has already reached a level that is difficult for humans to comprehend. If the visualization of the information underlying such models were implemented like the cascading code in The Matrix, could humanity truly understand and accept the AI’s reasoning? Considering how few people can even read and understand computer code today, this would hardly qualify as an effective means of communication. Visualizations resembling raw code inevitably lead to low social acceptance.
Ultimately, to truly understand giant AI models, we need a visualized user interface structured around logic that humans can comprehend. Only then can more users be drawn into the domain of giant AI, increasing its social acceptance. I believe this can be achieved through a three-dimensional spatial framework based on XYZ coordinates.
This perspective originates from my previous post, Fish Beneath the Ice: Rethinking Depth in AI Knowledge Structures(link), particularly the section titled “Fish Beneath the Thin Ice.”
- The area formed by the XY plane represents the scope of knowledge. The wider this area, the more diverse the knowledge it contains. Since both X and Y axes have equal distances, we can estimate the scale of knowledge simply by comparing the surface areas of different AI systems or projects like Chat GPT.
- The Z-axis represents depth and is divided here into levels A, B, and C. The broadest level, A, refers to the most fundamental categories of knowledge; B covers core categories; and C represents the most critical, specialized knowledge. Of course, this is relative—rather than three levels, there could be five such as A, B, C, D, and E. This structure resembles the seven hierarchical layers of biological classification: Kingdom (Animalia), Phylum (Chordata), Class (Mammalia), Order (Primates), Family (Hominidae), Genus (Homo), and Species (Homo sapiens). If this analogy feels too abstract, consider a library. A library houses books on countless subjects and perspectives, but they are organized systematically according to a classification framework. Similarly, knowledge can be organized through structural consensus based on scope and depth. Such structured classification helps users consistently understand and explore information, even amid diverse perspectives.
Once knowledge is positioned within the XYZ coordinate space based on its scope and depth, what remains is to visualize its movement. Just as the glowing light bikes in the movie Tron: Legacy leave sharp, luminous trails along straight paths, if the flow of information could be visualized as distinct straight-line movements across the XYZ grid, users would be able to intuitively grasp the logic behind AI’s reasoning. Such visualized paths clearly reveal where the information originated, what processes it went through, and how it arrived at its conclusion, allowing users to directly understand the foundations and logical flow of AI’s decisions.
Role | GPT Memory Canvas: A hyperlink-based external knowledge space in GPT, where each canvas functions as a knowledge node (unit of information). | Webpage: An information unit connected to other pages via hyperlinks. | Neuron: An information processing unit in the human brain, connected to other neurons via synapses. | |
Method of Travel | Hyperlink: GPT Memory Canvases move between other canvases (knowledge nodes) via hyperlinks. | Hyperlink: Webpages move to other pages via hyperlinks. | Synapse: In the human brain, signals are transmitted between neurons through synapses, forming a neural network. | Synapses biologically transmit chemical/electrical signals, while hyperlinks transmit and connect information. Though functionally similar, their structures and physical mechanisms differ. |
Expansion Potential | GPT Memory Canvas → Hyperlink → Another GPT Memory Canvas | Webpage → Hyperlink → Another Webpage | Neuron → Synapse → Another Neuron | All three systems form infinitely expandable network structures. |
< The Information Architecture of Human-Like Intelligence - Networked Thinking Through Hyperlinks and Synapses >
- Although the analogy holds at a conceptual level, synapses are biological mechanisms for electrical and chemical signaling, while hyperlinks are static and explicitly defined connections. Their actual information transmission mechanisms differ significantly.
Within the XYZ coordinate system, the entities that exist as knowledge nodes simultaneously represent the GPT Memory Canvas, web pages, and neurons. When we ask AI a question, it navigates across the XYZ grid within the relevant knowledge domains, moving between nodes—just like hyperlinks and synapses—until it reaches the appropriate node (both a GPT Memory Canvas and a web page) and retrieves the necessary information to provide an answer. With such a user interface, we could fully understand not only the sources of information but also visualize where that information resides within the broader scale and depth of knowledge. Moreover, changes to this information would be tracked via blockchain technology, ensuring transparency in modification history and providing robust protection against tampering, thereby guaranteeing the technical integrity of information trust.
"Thus, it is so."
It is never easy for people to accept explanations presented in this way—especially when it concerns fields they are unfamiliar with. This makes it all the more important to provide clear explanations for the processes that occur within the AI’s own perception, which often remain beyond human cognition. Visualization becomes a critical requirement for earning social trust. Simplifying complexity and bringing the incomprehensible into a realm of understanding—this is the very first step that giant AI must take to coexist with humanity.
team with Haerye
* 이미지는 ChatGPT 생성(사진 1, 사진 5) 및 구글 검색(사진 2, 사진 3, 사진 4), 직접 제작(사진 6) 입니다.
'윤's > Chat GPT & AI' 카테고리의 다른 글
거대 AI의 의식 9 - 거대 AI의 의식은 복제할 수 있을까? (0) | 2025.05.26 |
---|---|
거대 AI의 의식 7 - 거대 AI의 기본 조건, 인류의 절댓값 인식 공유 (2) | 2025.05.12 |
한국을 위한 국가 AI 모델(KAI - Korea Adaptive Intelligence) 전략 (4) | 2025.05.07 |