
- 관련 글
- Chat GPT를 통해 본 인간다움이란?(링크)
Chat GPT를 사용하면서 느끼는 게 있는데 과연 Chat GPT의 지식 습득 구조는 과연 합리적일까 하는 의문이다. SW 구조상에서는 내가 이해할 수 없는 구조가 있겠지만 적어도 사용하면서 추리하게 되는 구조가 있다. 이건 어디까지나 나의 사용 경험에서 오는 것임을 밝힌다.
검색 엔진을 통해서 확인되는 1차원적인 정보들만 취합하여 논리적인 해석을 시도한다. Chat GPT의 이 방법으로는 개인의 인지 능력을 아득히 뛰어넘는 1차원적인 정보 검색과 Chat GPT의 논리 추론 방법으로 인해 개인 이상의 능력을 발휘하기 쉬우나 문제는 그 깊이다. 통찰력을 가진 사람에게 과연 이 방법으로 원하는 질문의 답이 가능할까? 평면적인 정보 검색으로 인해 얻게 되는 정보의 질은 과연 얼마나 뛰어난 것일까? 즉, 고만고만한 것들 사이에서 고만고만한 것들이 나오게 되는 현상은 없을까? 하는 그런 생각 말이다. 그런 관점에서 프로그램 코딩이나 수학 문제처럼 명확한 답이 있고 논리 구조가 있는 것에서 답을 찾는 것과 그렇지 않은 사고의 영역에서 답을 찾는 것에는 현격한 차이가 있고 현재의 Chat GPT는 그런 한계를 극복하기 위한 지식 습득 구조는 한계가 있지 않는지 생각한다.



그러므로 지식의 깊이를 이해하는 관점이 필요하다. 나는 Chat GPT를 사용하는 과정에서 특정 사이트를 자료 참고할 것을 메모리 업데이트했는데 그럼에도 그 참고 과정이 제대로 기획 설계되었다고 보지는 않는다. 예로 삼정 KPMG의 무료 PDF 공개된 페이지를 참고해 달라고 요청했으나 그 관점이 반영된 답을 제대로 내놓지 못하는 것이다. 너무나 방대한 웹 검색에서 평면적인 정보 습득이 아니라 사용자의 주제와 관련된 영역에서 높은 수준의 사이트 내에서 키워드 검색과 그에 따른 결과물 PDF를 획득하고 그 PDF에서 다시 언어 인지를 통한 정보 학습을 한다면 지식의 깊이 측면에서는 더 높은 통찰력을 보여줄 수 있지 않을까? 즉, 정보 접근에 대한 다층적인 레이어의 개념을 이해하는 것 말이다. 그러려면 Chat GPT는 '얼마나 많은 평면적인 정보 수집을 할 것인가?' 보다 '얼마나 더 수직적인 정보의 깊이(층)를 이해하는가?'의 방향이 필요하다.

하지만 이것이 Chat GPT가 통찰력이 없다는 뜻은 아니다. 내가 A에 대한 주제에 관심이 높다는 것을 학습했다면 B에 대한걸 물어도 B에 대한 대답에 더해 A와 B의 연결점에 대한 추론과 그에 대한 결과값까지 함께 출력한다. 물론 이것이 정보의 다층적인 이해를 통한 깊이를 가지고 있다고는 할 수 없지만 내가 인지하지 못한 부분까지 연결 지점을 파악해 알려준다는 점에서 수평적인 정보 조합을 통한 통찰력을 가지고 있다. 이런 부분에서 나는 '?!?! Chat GPT가 이런 접근을 할 수 있다고?'의 신선한 느낌을 받았다. 그리고 그 내용은 유용했다.

그래서 난 이걸 '살얼음 아래 물고기들'이라 부른다. 살얼음 위에 내려다보면 평면적으로는 물고기가 존재하지 않는다. 비록 물고기가 보이더라도 살얼음 위에는 아무것도 없기 때문이다. 하지만 관점을 바꿔 수직적으로 본다면 물고기는 살얼음 아래 존재하고 있다. 존재하고 있지만 존재하지 않는 상태. 만약 Chat GPT가 이 관점을 이해한다면 한 번 더 진보할 수 있지 않을까? 그리고 Chat GPT가 이해하지 못한 그 관점을 한국 AI가 해낸다면 그 방향 또한 한국 AI의 돌파구가 될 수 있지 않을까? 기획하는 입장에서 난 그렇게 생각한다.
Fish Beneath the Ice: Rethinking Depth in AI Knowledge Structures
- Related Article
- Is AI Really Human? A Reflection on ChatGPT's UX and Trustworthiness(link)
While using ChatGPT, I often wonder—is ChatGPT’s knowledge acquisition structure truly rational? From a software architecture standpoint, there may be mechanisms I don’t fully understand. However, as a user, I’ve come to form certain assumptions about how it seems to function. I want to clarify that these thoughts come entirely from my personal user experience.
It seems to gather one-dimensional information found through search engines and attempt logical interpretation. With this approach, ChatGPT can easily surpass human cognitive capacity in terms of gathering surface-level information and applying its logical reasoning. But the problem lies in depth. Can this method truly provide satisfying answers to insightful individuals asking complex questions? How high is the quality of information derived from flat, surface-level searches? I wonder if this leads to a situation where mediocre inputs produce mediocre outputs. In areas like programming or mathematics—where clear answers and logical structures exist—ChatGPT can excel. But in areas of thought that lack clear answers, I question whether ChatGPT’s knowledge acquisition structure can overcome such limitations.


Therefore, a perspective that understands the depth of knowledge is necessary. While using ChatGPT, I even updated its memory to reference specific sites for materials, but I still don’t believe the referencing process is properly designed. For example, I requested that it refer to Samjong KPMG’s freely available PDF reports, but the responses didn’t reflect that perspective adequately. Instead of simply gathering surface-level information from the vast web, what if ChatGPT focused on high-level sites within the user’s specific domain, performed keyword searches, acquired relevant PDF reports, and then learned from those through deeper language understanding? Wouldn’t that enable a greater level of insight? This is about understanding the concept of multi-layered access to information. ChatGPT needs to shift from “how much flat information can it collect” to “how well can it understand the vertical depth (layers) of information”.

If ChatGPT learns that I’m deeply interested in topic A, even when I ask about topic B, it often provides an answer that includes connections between A and B, along with a synthesized output. Of course, this doesn’t mean it possesses multi-layered depth through vertical understanding, but it does exhibit insight through horizontal combinations of information, even identifying connections I hadn’t recognized. In moments like these, I’ve felt surprised:
“Whoa?! ChatGPT can approach things like this?”
And I found those insights useful.

That’s why I call this “fish beneath the ice”.
When you look down at thin ice from above, you don’t see the fish. Even if the fish are there, on the surface of the ice, there’s nothing visible. But if you shift your perspective vertically, you realize the fish exist beneath the ice. They exist, yet do not appear to exist. If ChatGPT could understand this perspective, couldn’t it advance one step further? And if Korean AI could grasp and implement this perspective where ChatGPT hasn’t, couldn’t that become a breakthrough for Korean AI? As someone who works in planning, that’s how I see it.
'윤's > Chat GPT & AI' 카테고리의 다른 글
| Chat GPT의 UI 개선에 따른 UX 방향 (0) | 2025.03.24 |
|---|---|
| AI 전쟁에서 반복되는 넷스케이프 vs 익스플로러의 역사 (2) | 2025.03.16 |
| Chat GPT를 통해 본 인간다움이란? (0) | 2025.01.29 |