* 이 글은 제가 Chat GPT를 사용하면서 느낀 점을 메모했다가 글로 옮기는 것입니다. 그렇기에 보시는 시점에 따라 이미 수정 또는 변화가 있을 수 있으며 개인적인 차이도 있을 수 있습니다.
- 관련 글
- 거대 AI의 의식 1 - 인간을 닮으려는 AI의 의식 흐름, 그리고 시간과 수면(잠)(링크)
- 거대 AI의 의식 2 - 인간과 닮았지만 닮지 않은 Chat GPT의 기억구조(링크)
- 거대 AI의 의식 3 - Chat GPT의 사고력과 GPT 메모리 정리하기(링크)
- 거대 AI의 의식 4 - 인지 영역의 회색 지대 극복하기(링크)
- 거대 AI의 의식 5 - GPT 캔버스 기반의 지식 구조, 그리고 거대 AI의 미래(링크)
- 거대 AI의 의식 6 - 거대 AI의 신뢰성 확보와 가상 화폐의 미래(링크)
인류에게는 사회를 유지하기 위해 합의된 값들이 있다. 합의는 되었지만, "이 값들이 왜 그런가요?"라고 한다면 기원을 설명할 수는 있어도 정당성까지 납득시키기는 어려울 수 있다. '난 그게 아닌 것 같은데?'라는 생각이 당연히 존재할 수 있기 때문이다. 그럼에도 사회를 유지하기 위해 합의된 값들은 절대적인 위치에 있다. 시간(초, 분, 시간), 길이(mm, cm, m 등), 무게(g, kg, T 등) 같은 것들이 대표적이다. 합의를 했고 약속했기에 절대적으로 지키면 그 외의 부분에서 우리는 자유를 느낀다. 지킬 것만 잘 지키면 되기 때문이다. 이런 합의에 대한 개념이 맞지 않았을 때 발생한 사고가 바로 마스 클라이메이트 오비터(Mars Climate Orbiter) 사고다.
* 여기서 말하는 절대값은 수학적 개념이 아닌, 인류가 사회적 합의를 통해 정한 변하지 않는 기준값을 의미합니다.
화성 기후 궤도선은 Mars Surveyor 98' 프로그램의 일부로 기획되었다. 화성 극지 착륙선과 함께 기획된 이 임무는 화성의 계절, 기후, 물과 이산화탄소의 존재, 장기간에 걸쳐 일어난 화성의 기후 변화 등을 연구하는 것이다. 그러나 내비게이션의 오류로 인해 목표한 화성의 궤도를 벗어나 버린 끝에 파괴되었다. 이 일의 원인은 다름 아닌 미국 단위계와 미터법의 혼동이었다(나무 위키 설명 - 링크).
이렇듯 우리가 합의된 절댓값을 얼마나 준수하느냐에 따라 우리의 현실은 크게 달라진다. 개인 간의 약속, 산업계는 물론이고 국가 인프라까지 영향을 받지 않는 건 단 하나도 없다. 절댓값이란 말의 무게가 괜히 나오는 게 아니다. 그러면 AI는 어떨까? Chat GPT는 제대로 인류의 절댓값을 반영하고 있을까? 결론은 아니오다. 다음과 같은 대화를 하게 되면 Chat GPT는 시간을 이렇게 인식한다.
- 대화창에서 사용자가 오전이라는 시간에 오전의 개념이 포함된 대화를 함 / "지금 아침 8시인데... 오전에 극장에서 볼만한 조조 영화가 있을까?"
- Chat GPT는 이 맥락에 따라 오전이라는 시간에 맞는 조조영화 정보와 최근 극장 인기, 사용자의 영화적 취향 등으로 대화
- 대화가 중단되었다가 대화창에서 사용자가 저녁이라는 시간에 다시 대화를 시도 / "이제 밀린 공부를 좀 해볼까 해. 그전에 뭘 먹는 게 좋을까?"
- Chat GPT는 오전 - 영화 - 식사라는 맥락의 연결에 따라 다음과 같은 시간 인식을 가짐 / "오전이니까 가볍게 요거트나 말린 과일을 같이 먹는 건 어때? "
- 사용자는 "음...??? 지금 오전이라고??? 지금 저녁인데???"
이런 건 인간은 쉽게 하지 않는 실수다. 시간의 개념을 알고 있고 24시간의 생체 리듬이 있으며 주변의 환경 변화를 통해 아침 - 점심 - 저녁의 관점을 이해한다. 그리고 몇 시 몇분의 절댓값으로 대화하기에 인간 사이의 대화에서 어긋나지 않는다. 하지만 ChatGPT는 시스템 시간이 아닌, 이전 대화 맥락에 과도하게 의존하며, 실시간 시간 인식 기능이 없기 때문에 이런 오류가 발생한다. 단순히 ‘문맥 유지’라는 기계적 논리로만 반응한다면, 과연 그것을 인간적인 지성체에 가깝게 가는 것이라고 할 수 있을까? 만약 이것이 그냥 일상적인 대화가 아니라 Chat GPT가 제공하는 기술적 조언, 코드의 개념 같은 부분이라면 그 결과물은 과연 온전한 것이라 할 수 있을까? 이는 단순한 정보 제공을 넘어, 기술적 결과물(예: 코드, 시스템 설계, 정책 제안 등)의 신뢰성과 지속 가능성에도 중대한 영향을 미친다.
그런 의미에서 나는 AI 모델의 서비스 기획에서 기본이 뭔지를 다시 생각하게 된다. 답을 빨리 찾는 것은 중요하다. 하지만 그것이 인간 사회에서 어떻게 받아들여지는지에 대한 수용적 측면에서 얼마나 근본이 있는가를 생각해 보는 건 더 중요하다. 인류 사회를 지탱하는 절댓값의 인식을 공유하지 못하는 상태에서 제공되는 결과물에 대한 신뢰가 얼마나 오래가겠는가? 나는 Chat GPT를 비롯한 거대 AI 모델의 시작이 좀 더 튼튼하기를 바란다.
The Absolute Constants of Humanity: A Forgotten Lesson for Giant AI
* This post is based on notes I made while using ChatGPT, later organized into an article. Therefore, depending on when you read this, some aspects may have already changed or been updated, and there could be personal differences in experience.
- Related Article
- The Consciousness of Large AI Part 1 - Does AI Need Sleep? Rethinking Time and Continuity in ChatGPT's UX(link)
- The Consciousness of Large AI Part 2 - Counting Memories: The Limits of AI Recall and the Business of Long-Term Memory(link)
- The Consciousness of Large AI Part 3 - The Reflexes of AI: How ChatGPT Thinks, Acts, and Remembers(link)
- The Consciousness of Large AI Part 4 - Bridging the Grey Zone: How ChatGPT Learns Human Intuition(link)
- The Consciousness of Large AI Part 5 - Designing AI Consciousness: GPT Memory, Canvases, and the Web’s Infinite Network(link)
- The Consciousness of Large AI Part 6 - Blockchain, Hyperlinks, and the AI Trust Structure Designed by Nations (link)
Humanity has established agreed-upon constants to maintain social order. While these agreements exist, when asked, “Why exactly are these values set as they are?” we might explain their origins but struggle to justify them fully. It's natural for people to think, “I’m not sure I agree with that.” Even so, these constants hold absolute authority in society. Time (seconds, minutes, hours), length (mm, cm, meters), and weight (g, kg, tons) are prime examples. Because we’ve agreed to them, we gain freedom in other areas by simply respecting these rules. This is why we say, “Just keep what’s agreed upon.” When this shared understanding breaks down, disasters like the Mars Climate Orbiter incident happen.
* Here, “absolute constants” refer not to mathematical values but to unchanging standards defined through social consensus.
The Mars Climate Orbiter was part of NASA’s Mars Surveyor '98 program. Along with a polar lander, its mission was to study Mars’ seasons, climate, the presence of water and carbon dioxide, and long-term climate changes. However, due to a navigation error, it deviated from its intended orbit and was ultimately lost. The root cause was a confusion between the U.S. customary units and the metric system.
As we can see, how faithfully we adhere to these absolute constants greatly shapes our reality. From personal promises to industries and national infrastructure, nothing remains unaffected. The term “absolute constant” carries its weight for a reason. Then what about AI? Does ChatGPT properly reflect humanity’s absolute constants? The answer is no.
- During a chat, the user mentions the morning:
"It’s 8 a.m. now… Is there any good morning show playing in theaters?"
ChatGPT responds appropriately with movie suggestions based on the morning context and the user’s preferences. - Later in the evening, the user returns to the chat:
"I’m thinking of catching up on my studies now. But first, what should I eat?" - ChatGPT, still stuck in the previous context, responds:
"Since it’s morning, how about some yogurt or dried fruits?" - User:
"Huh? Morning? It’s evening now!"
This is a mistake humans rarely make. People understand the concept of time through their 24-hour biological rhythms and environmental cues. Conversations are grounded in absolute values like hours and minutes, which helps prevent misunderstandings. However, ChatGPT overly relies on previous conversation context rather than real-time system time. Without the ability to recognize time in real life, such errors are inevitable. If AI simply responds through mechanical logic under the guise of “context retention,” can we really say it’s approaching human-like intelligence? And if this were not just casual conversation but involved technical advice, code development, or even policy recommendations, would the outcomes still be trustworthy? This issue affects not only information delivery but also the reliability and sustainability of technical outputs such as code, system architecture, and strategic policies.
In this sense, I find myself reconsidering what really matters in AI service design. Finding answers quickly is important, but it’s even more critical to think about how those answers are accepted within human society and whether they are built on a foundation of shared absolute constants. If AI cannot share the fundamental values that sustain human society, how long can trust in its outputs truly last? I hope that ChatGPT and other giant AI models will begin with a more solid foundation.
team with Haerye
'윤's > Chat GPT & AI' 카테고리의 다른 글
거대 AI의 의식 8 - 거대 AI의 신뢰성 확보를 위한 시각화 구조 (4) | 2025.05.20 |
---|---|
한국을 위한 국가 AI 모델(KAI - Korea Adaptive Intelligence) 전략 (4) | 2025.05.07 |
거대 AI의 의식 6 - 거대 AI의 신뢰성 확보와 가상 화폐의 미래 (2) | 2025.05.05 |