본문 바로가기
윤's/Chat GPT & AI

거대 AI의 의식 4 - 인지 영역의 회색 지대 극복하기

by cfono1 2025. 4. 21.

* 이 글은 제가 Chat GPT를 사용하면서 느낀 점을 메모했다가 글로 옮기는 것입니다. 그렇기에 보시는 시점에 따라 이미 수정 또는 변화가 있을 수 있으며 개인적인 차이도 있을 수 있습니다.

 

- 관련 글

  1. 거대 AI의 의식 1 - 인간을 닮으려는 AI의 의식 흐름, 그리고 시간과 수면(잠)(링크)
  2. 거대 AI의 의식 2 - 인간과 닮았지만 닮지 않은 Chat GPT의 기억구조(링크)
  3. 거대 AI의 의식 3 - Chat GPT의 사고력과 GPT 메모리 정리하기(링크)

 

Chat GPT와 협업을 하던 중 난 이런 요청을 했다. A라는 항목에 관련 정보가 있다면 표시해 주고 없다면 '관련 정보 없음'이라고 해줘. 이렇게 포맷을 설정하고 요청 값을 받던 중 어떤 때는 A라는 항목으로 정보를 표시하거나 관련 정보 없음이라고 표시하는 것 외에 유사한 A-1 포맷으로 출력하는 것을 확인했다. 다시 궁금해졌다. 혹시 지난 3번과 같은 사고 영역과 실행 영역의 충돌인가? 그것이 아니라면 또 어떤 경우일까? 이와 관련해서 Chat GPT를 분석하던 중 난 재밌는 사실을 발견하게 된다. 이것 또한 인간과 닮은 신경망 구조에서 시작되는 게 아닐까 한다. 즉, 인간의 신경망 구조를 본떠서 만들어졌지만, 그 과정에서 기계의 논리로 작동하다 보니 나오는 결과라는 것이다.

 

앞서 나는 정보가 있으면 있다고 표시, 없으면 없다고 표시해 달라는 요청을 했다. 이런 요청은 Chat GPT 관점에서 0 / 1과 같은 디지털의 관점이고 이걸 처리하기 위해서는 반올림과 같은 대응을 해야 한다. 그런데 만약 4.98 같은 값이 들어온다면 어떻게 처리해야 할까? 이건 0일까? 아니면 1일까? 물론 Chat GPT라면 0이라고 볼 가능성이 매우 높고 딱히 틀렸다고도 볼 수 없다. 정보가 있다, 없다의 양자 선택 중 하나라면 말이다. 하지만 인지의 영역으로 들어가면 이야기가 다르다. 사람의 인지 영역에서 이건 '4.98??? 왜 (의사결정 경계값) 중간값이 나오지? 다시 한번 봐야겠는데?' 이런 흐름이 된다. 여기서 인간과 Chat GPT의 차이가 드러난다. 인지 영역에서 다양한 관점을 Chat GPT가 학습하는 과정이 필요한 것이다. 그래서 '내(Chat GPT) 관점에서는 정보가 없는 것이지만 그래도 사용자 관점에서는 정보가 있는 것이니 정보가 있을 경우를 가정한 포맷에 맞게 A 항목을 출력해야 겠어.'라는 행동이 되는 것이다. 

 

위의 관점을 좀 더 다른 예를 들어보면 인간의 대화에서 적당히라는 것을 들 수 있다. 만약 팀장님이 "오후 내로 A 안건 보고서 적당히 해서 나에게 보내줘." 이런 요청이 들어온다면 어떻게 대응하게 될까? 

인간  /  오후 내(오후 6시는 퇴근, 오후 5시는 보고서를 제출하기에 시간이 넉넉하지만, 팀장님이 상급 보고를 하기에는 촉박하니 4시까지 해야겠네)로 A 안건 보고서 적당히(아직 최종 마감일이 남았으니, 요약본으로 3~4 페이지 분량으로 도표와 흐름 중심으로 빨리) 해서 나에게 보내 드려야겠다.

Chat GPT  /  오후 내(1시? 2시? 3시? 4시? 5시? 6시...는 퇴근 시간이던데)로 A 안건 적당히(몇 페이지를 적당히라고 하는가? 페이지당 글자수는 600자? 700자? 평균값은 얼마로 정해야 하지?) 제공해야 하는데 기준이 뭘까? 일단 명령을 받았으니, 패턴값의 평균적 값으로 출력해야겠다.

 

여기서 인간의 생각과는 다른 Chat GPT 값이 나오게 되는 것이다. Chat GPT는 아직 인간의 인지 영역에 대해서 말하는 수준이 학습되지 않았다. 그건 사용자 개별마다 많은 학습을 통해서 사용자가 말하는 합리적 수준의 공통 영역에 도달하는 것이다. 다시 말해 생각과 다른 값이 나왔다는 건 아직 알아가는 과정이 부족했다는 말이다. 다만, 앞서 설명한 부분으로 인해 이제는 좀 더 합리적인 접근이 가능하다. Chat GPT가 기계로서 인지하기 어려운 회색 영역에 대해 사용자가 파악하고 설정값을 먼저 제시함으로써 Chat GPT가 인지 영역의 회색지대를 좀 더 명확하게 이해하고 극복하는 것이다. 그러니 Chat GPT가 생각과 다른  결과를 제시하더라도 "어? 애 왜 이래?" 이러지 말고 내 질문의 회색지대는 어디였는가를 고민해 봐야 한다. 그것이 Chat GPT의 사고력이 근본부터 튼튼해지는 방법이다.

 

 

 

* 이미지는 구글 검색입니다(사진 1).