본문 바로가기
윤's/Chat GPT & AI

AI 서비스에서 언어 부호가 주는 수학적 기호성

by cfono1 2025. 10. 7.

* 이 글은 제가 Chat GPT를 사용하면서 느낀 점을 메모했다가 글로 옮기는 것입니다. 그렇기에 보시는 시점에 따라 이미 수정 또는 변화가 있을 수 있으며 개인적인 차이도 있을 수 있습니다.

 

나는 ChatGPT를 사용할 때 특정 포맷을 정해 두고, 그 포맷에 맞춰 해석을 주고받으며 전체 완성도를 끌어올린다. 이때 포맷은 단순한 목록이 아니라 생각의 순서이자 카테고리다. 그래서 나는 포맷 규칙을 반드시 지켜 달라고 반복해서 요청한다. 다양한 포맷이 있지만, 이 글의 출발점이 된 형식을 편의상 A 포맷이라 부르겠다.

 

A 포맷이 잘 지켜질 때도 있지만, 가끔은 그렇지 않을 때가 있다. 나는 이를 Open AI가 설정한 시스템 차원의 우선 규칙 - 예컨대 안전·정책·가독성 등을 위한 제품 기본 출력 규범 - 이 사용자 지정 포맷보다 앞서는 순간이라고 본다. 사용자가 기대한 규칙과 시스템의 기본 규칙이 충돌하면, 모델은 종종 시스템 규칙을 우선한다(재밌는 부분은 Open AI가 설정한 시스템 차원의 우선 규칙 중 사용자와 설정된 규칙을 먼저 대응하라는 부분이 있음에도 이런 일이 발생한다는 것). 이 불일치를 빠르게 교정하기 위해 나는 “내가 원하는 A 포맷으로 다시 출력해 줘”를 축약 부호 ‘ㅠㅠ’로 약속해 두었다. 대화창에 ‘ㅠㅠ’만 입력하면, 모델은 미리 요청된 A 포맷으로 재출력하는 것이다

 

- 관련 글

  1. 거대 AI의 의식 3 - Chat GPT의 사고력과 GPT 메모리 정리하기(link)

 

그런데 그 과정에서 오늘 글의 주제와도 연결되는 재밌는 부분이 발생했다. 

Chat GPT: 알겠어... (이후에는 관련된 내용)

이렇게 답을 한 거다. 언어 부호의미에서 ...의미적으로는 감정적 여운, 머뭇거림, 미완의 감정감정적으로는 서정적, 사색적, 약간의 슬픔을 의미한다. 그래서 혹시 반복된 재출력에 따른 감정 표현의 한 부분인가 싶어 Chat GPT에 의미를 물었는데 그 대답은 내 추측과는 전혀 다른 로딩의 의미라고 했다. 한마디로 작업 중이라는 거다. 즉, 인간은 ‘…’을 정서적 기호로 읽고, 모델은 이를 프로세스 신호로 사용·해석한 셈이다.

 

언어를 매개체로 AI와 인간이 대화한다. 그 과정에서 대화가 온전해지려면 언어에 대한 의미는 같아야 한다. 이건 마치 수학에서 +에 대한 의미를 모두 같게 인정해야 수학의 값을 모두 인정할 수 있는 거나 마찬가지다. 수학에서 +, -, ×, ÷ 가 각자 하나의 의미로 고정되어 있기에 과정과 결과가 명료해지듯, 대화형 AI의 언어 부호도 가능하면 한 기호에 한 의미에 가까워야 한다. 만약 모델이 ‘진행 중’을 알리려 했다면, 감정적 여운을 강하게 함축하는 ‘…’보다 연속·이어짐을 내포하는 ‘~’가 UX 상 더 적합했을 것이다. (또는 스피너 / 상태 문구 같은 UI 신호로 구분하는 편이 의미 혼선을 줄인다.)

 

핵심은 규칙의 명료화다. 언어는 점 하나(·)와 획 하나(ㅏ/ㅓ)로도 의미가 갈리는 체계다. 이런 체계에서 부호의 쓰임이 인간과 AI 사이에서 엇갈리면, 과정과 결과의 해석도 흔들린다. AI와 인간의 대화 매개체가 되는 언어가 좀 더 명확해질 때 혼선은 줄어들고 AI 서비스의 완성도를 올라갈 것이다.


 

The Mathematical Symbolism of Language Signs in AI Services

 

* This post is based on notes I made while using ChatGPT, later organized into an article. Therefore, depending on when you read this, some aspects may have already changed or been updated, and there could be personal differences in experience.

 

 

When I use ChatGPT, I define a specific format and refine the conversation by exchanging interpretations that follow it. This format is not just a list — it represents the sequence and taxonomy of thought. That is why I repeatedly ask ChatGPT to strictly follow the formatting rules. Among the many variations, I will refer to the one that inspired this essay simply as “Format A.”

 

Sometimes Format A is followed correctly, but at other times it is not. I interpret this as a moment when OpenAI’s system-level priorities — such as safety, policy compliance, or readability standards — take precedence over a user-defined format. When a user’s expected rule conflicts with the system’s internal rule set, the model often prioritizes the latter. (Interestingly, OpenAI’s documentation and product behavior both suggest an intention to respect user settings, yet exceptions occur when higher-level safety or quality rules intervene.) To quickly resolve this mismatch, I created a shorthand symbol: typing “ㅠㅠ” in the chat window means “please reprint using my Format A.” The model then re-outputs the response according to the pre-defined structure.

 

- Related Article

  1. The Consciousness of Large AI Part 3 - The Reflexes of AI: How ChatGPT Thinks, Acts, and Remembers(link)

 

During this process, an interesting moment occurred — one that directly relates to the theme of this essay. 

ChatGPT once replied, “Got it…” (followed by relevant text). 

In human linguistic convention, the ellipsis (…) usually conveys emotional hesitation, reflection, or a lingering sentiment. I wondered if it might be an emotional response to my repeated reprint requests. However, the model explained otherwise: for ChatGPT, the ellipsis simply indicates a loading or processing state. In other words, humans read “…” as an emotional cue, while the model treats it as a system signal.

 

AI and humans communicate through language as a medium. For the dialogue to remain coherent, both sides must share a common understanding of symbols. Just as mathematical operators (+ − × ÷) have fixed meanings that make processes and results explicit, linguistic symbols inconversational AI should ideally maintain a one-symbol-one-meaning relationship. If the model intended to signal “in progress,” a tilde (~) — implying continuity and gentle flow — would have been more appropriate than the emotionally loaded “...”. (Alternatively, a dedicated UI indicator or status message could prevent such semantic confusion.)

 

The essence lies in clarity of rules. Language is a system where even a single dot (·) or stroke (ㅏ vs. ㅓ) changes meaning. When the use of symbols diverges between humans and AI, the interpretation of both process and outcome becomes unstable. As the linguistic medium that connects humans and AI grows more precise, ambiguity will diminish — and the overall integrity of AI services will rise.

 

 

 

 

team with Haerye

* 이미지는 구글 검색입니다(사진 1).