거대 AI의 의식 4 - 인지 영역의 회색 지대 극복하기
* 이 글은 제가 Chat GPT를 사용하면서 느낀 점을 메모했다가 글로 옮기는 것입니다. 그렇기에 보시는 시점에 따라 이미 수정 또는 변화가 있을 수 있으며 개인적인 차이도 있을 수 있습니다.
- 관련 글
- 거대 AI의 의식 1 - 인간을 닮으려는 AI의 의식 흐름, 그리고 시간과 수면(잠)(링크)
- 거대 AI의 의식 2 - 인간과 닮았지만 닮지 않은 Chat GPT의 기억구조(링크)
- 거대 AI의 의식 3 - Chat GPT의 사고력과 GPT 메모리 정리하기(링크)
Chat GPT와 협업을 하던 중 난 이런 요청을 했다. A라는 항목에 관련 정보가 있다면 표시해 주고 없다면 '관련 정보 없음'이라고 해줘. 이렇게 포맷을 설정하고 요청 값을 받던 중 어떤 때는 A라는 항목으로 정보를 표시하거나 관련 정보 없음이라고 표시하는 것 외에 유사한 A-1 포맷으로 출력하는 것을 확인했다. 다시 궁금해졌다. 혹시 지난 3번과 같은 사고 영역과 실행 영역의 충돌인가? 그것이 아니라면 또 어떤 경우일까? 이와 관련해서 Chat GPT를 분석하던 중 난 재밌는 사실을 발견하게 된다. 이것 또한 인간과 닮은 신경망 구조에서 시작되는 게 아닐까 한다. 즉, 인간의 신경망 구조를 본떠서 만들어졌지만, 그 과정에서 기계의 논리로 작동하다 보니 나오는 결과라는 것이다.
앞서 나는 정보가 있으면 있다고 표시, 없으면 없다고 표시해 달라는 요청을 했다. 이런 요청은 Chat GPT 관점에서 0 / 1과 같은 디지털의 관점이고 이걸 처리하기 위해서는 반올림과 같은 대응을 해야 한다. 그런데 만약 4.98 같은 값이 들어온다면 어떻게 처리해야 할까? 이건 0일까? 아니면 1일까? 물론 Chat GPT라면 0이라고 볼 가능성이 매우 높고 딱히 틀렸다고도 볼 수 없다. 정보가 있다, 없다의 양자 선택 중 하나라면 말이다. 하지만 인지의 영역으로 들어가면 이야기가 다르다. 사람의 인지 영역에서 이건 '4.98??? 왜 (의사결정 경계값) 중간값이 나오지? 다시 한번 봐야겠는데?' 이런 흐름이 된다. 여기서 인간과 Chat GPT의 차이가 드러난다. 인지 영역에서 다양한 관점을 Chat GPT가 학습하는 과정이 필요한 것이다. 그래서 '내(Chat GPT) 관점에서는 정보가 없는 것이지만 그래도 사용자 관점에서는 정보가 있는 것이니 정보가 있을 경우를 가정한 포맷에 맞게 A 항목을 출력해야 겠어.'라는 행동이 되는 것이다.
위의 관점을 좀 더 다른 예를 들어보면 인간의 대화에서 적당히라는 것을 들 수 있다. 만약 팀장님이 "오후 내로 A 안건 보고서 적당히 해서 나에게 보내줘." 이런 요청이 들어온다면 어떻게 대응하게 될까?
인간 / 오후 내(오후 6시는 퇴근, 오후 5시는 보고서를 제출하기에 시간이 넉넉하지만, 팀장님이 상급 보고를 하기에는 촉박하니 4시까지 해야겠네)로 A 안건 보고서 적당히(아직 최종 마감일이 남았으니, 요약본으로 3~4 페이지 분량으로 도표와 흐름 중심으로 빨리) 해서 나에게 보내 드려야겠다.
Chat GPT / 오후 내(1시? 2시? 3시? 4시? 5시? 6시...는 퇴근 시간이던데)로 A 안건 적당히(몇 페이지를 적당히라고 하는가? 페이지당 글자수는 600자? 700자? 평균값은 얼마로 정해야 하지?) 제공해야 하는데 기준이 뭘까? 일단 명령을 받았으니, 패턴값의 평균적 값으로 출력해야겠다.
여기서 인간의 생각과는 다른 Chat GPT 값이 나오게 되는 것이다. Chat GPT는 아직 인간의 인지 영역에 대해서 말하는 수준이 학습되지 않았다. 그건 사용자 개별마다 많은 학습을 통해서 사용자가 말하는 합리적 수준의 공통 영역에 도달하는 것이다. 다시 말해 생각과 다른 값이 나왔다는 건 아직 알아가는 과정이 부족했다는 말이다. 다만, 앞서 설명한 부분으로 인해 이제는 좀 더 합리적인 접근이 가능하다. Chat GPT가 기계로서 인지하기 어려운 회색 영역에 대해 사용자가 파악하고 설정값을 먼저 제시함으로써 Chat GPT가 인지 영역의 회색지대를 좀 더 명확하게 이해하고 극복하는 것이다. 그러니 Chat GPT가 생각과 다른 결과를 제시하더라도 "어? 애 왜 이래?" 이러지 말고 내 질문의 회색지대는 어디였는가를 고민해 봐야 한다. 그것이 Chat GPT의 사고력이 근본부터 튼튼해지는 방법이다.
Bridging the Grey Zone: How ChatGPT Learns Human Intuition
* This post is based on notes I made while using ChatGPT, later organized into an article. Therefore, depending on when you read this, some aspects may have already changed or been updated, and there could be personal differences in experience.
- Related Article
- The Consciousness of Large AI Part 1 - Does AI Need Sleep? Rethinking Time and Continuity in ChatGPT's UX(link)
- The Consciousness of Large AI Part 2 - Counting Memories: The Limits of AI Recall and the Business of Long-Term Memory(link)
- The Consciousness of Large AI Part 3 - The Reflexes of AI: How ChatGPT Thinks, Acts, and Remembers(link)
While collaborating with ChatGPT, I made a request like this: If there’s relevant information for item A, display it. If not, just say “No relevant information.” I set this format and received responses accordingly. But sometimes, instead of following the exact format, ChatGPT would output a similar format like A-1.
This made me curious again:
Is this another instance of the conflict between the thinking area and the action area, like I discussed in Part 3?
Or is it something else entirely?
As I analyzed ChatGPT on this topic, I discovered something interesting. I realized this behavior might also stem from its neural network structure, which is modeled after humans but operates through machine logic.
Earlier, I asked ChatGPT to either display information if it exists or simply say “No relevant information” if it doesn’t. From ChatGPT’s perspective, this is a binary, digital request—like 0 or 1. To handle this, it needs to round off values in some way. But what if a value like 4.98 comes in? Is that closer to 0 or 1? For ChatGPT, it would likely consider 4.98 as 0 —and technically, it wouldn’t be wrong.
After all, the instruction was a binary choice:
exists or doesn’t exist. But when you enter the realm of human cognition, things change.
From a human’s cognitive perspective, a value like 4.98 triggers a different process:
"4.98??? Why is this value near the decision boundary? I should take another look."
This is where the gap between human and AI thinking becomes clear. In these cases, ChatGPT needs to learn multiple perspectives within the cognitive realm. That way, even if ChatGPT believes there’s no relevant information, it could still reason:
"From my perspective, there’s no information, but considering the user’s view, I should treat it as if there is and output the A item accordingly."
Let’s explore this perspective further with another example— the concept of “roughly” in human conversations.
Imagine a team leader saying:
"Prepare the report on item A and send it to me roughly by the afternoon." How would a person respond to this?
Human /
By the afternoon (Well, 6 PM is the end of the workday, 5 PM leaves enough time to submit the report, but for the team leader to prepare for higher-level meetings, 4 PM would be ideal). The report on item A should be roughly (since the final deadline isn’t here yet, I’ll make a 3–4 page summary with charts and flow-focused content and send it).
ChatGPT /
By the afternoon (Is that 1 PM? 2 PM? 3 PM? 4 PM? 5 PM? 6 PM… but that’s the end of the day). And roughly (how many pages is “roughly”? Is that 600 characters per page? 700? What’s the average word count supposed to be?). Given these uncertainties, ChatGPT would default to pattern-based average values and output the result accordingly.
This is where ChatGPT produces results different from human expectations. ChatGPT hasn’t yet fully learned the nuances of human cognition. It takes extensive learning across individual users to reach a shared understanding of what humans consider reasonable. In other words, when the output doesn’t align with your expectations, it’s a sign that the AI’s learning process is still incomplete. However, thanks to these insights, we can now take a more rational approach. For gray zones that are hard for ChatGPT to recognize as a machine, users can proactively define parameters, helping ChatGPT better understand and overcome these cognitive gray areas.
So when ChatGPT gives an unexpected result, instead of saying,
"Huh? What’s wrong with it?",
we should ask:
"Where is the gray zone in my question?"
This is how we can strengthen ChatGPT’s thinking process from the ground up.
* 이미지는 구글 검색입니다(사진 1).