윤's/┗ 웹 / 콘텐츠 / 플랫폼

Chat GPT를 통해 본 인간다움이란?

cfono1 2025. 1. 29. 16:31

 

최근 업무를 위해 Chat GPT를 써야겠다고 생각했고 사용 중에 무료 플랜 한도가 빈번하게 차서 대화가 끊어져 결국 유료 플랜까지 사용하게 되었다. 사용하면서 느낀 점은 내가 질문만 명확하다면 그 결과값의 신뢰도는 상당하는 것이다. 결국 내가 얼마나 질문을 잘할 수 있는가? 그 과정을 세세하게 다듬을 수 있는가에 따라 결과물의 수준은 달라진다. 그 방향에 대해 요즘 감을 잡아가는 중이다. 그런데 어제 작업 중 문제가 생겼다.  

 

Chat GPT의 기능 중 캔버스라는 게 있는데 대화창에 다시 작은 팝업을 띄우는 것으로 특정 주제를 가진 파일(워드, 엑셀 형식의)을 수정하기 매우 유리하다. 전체적인 대화창에서 작업을 대화로 하다 보면 특정 주제를 가진 내용을 계속 밀려서 위로 올라갈 수밖에 없는데 그걸 막고 대화를 통해서 결과물을 직접 수정하니 효율성이 매우 좋다.

캔버스 기능의 대화창
캔버스 기능이 활성화된 화면. 오른쪽의 문서를 보면서 왼쪽에서 수정이 가능하다.

문제는 이후에 발생했다. 관련 문서를 프로젝트로 만들어 그 안에서 작성하다 이제는 일반 대화창에서 비슷한 작업을 이어가고 싶어 일반 대화창에서 특정 문서에 대한 캔버스를 만들어 달라고 요청했다. 사용해 보면 알겠지만, 캔버스 기능은 정말 편리하다. 문제는 이후에 발생했다. Chat GPT가 이해를 못 하기 시작한 것이다.

  1. 캔버스 기능을 처음에 캔버스 경영 기법(링크)으로 이해해 내가 요청한 문서를 캔버스 기능으로 만드는 게 아니라 캔버스 경영 기법으로 이해해 버렸다. 물론 난 아니라고 했고 다시 캔버스 기능으로 만들어 달라고 요청했다.
  2. 이번에는 캔버스 기능으로 만들기는 했는데 엑셀 타입의 열과 행으로 되어 있는 문서를 만들어 버렸다. 물론 난 아니라고 했고 다시 캔버스 기능으로 만들어 달라고 요청했다.
  3. 그런데 또 열과 행의 액셀 타입의 캔버스 기능으로 만들자 이번에는 그게 아니라 난 워드 타입의  캔버스 기능으로 만들어 달라고 요청했다.
  4. 그런데 이번에도 열과 행의 액셀 타입의 캔버스 기능을 만들고선 나에게 잘 안되는데... 워드 타입의 문서를 다운받는 건 어때(txt 파일)? 라는 제안을 했다. 엑셀 타입이 되는데 워드 타입의 캔버스가 안 된다고? 이 질문에 가능하다고 하니 난 또 그럼 만들어 달라고 요청했다.
  5. 이렇게 Chat GPT는 요청 때마다 정말 미안해!!! 내가 열심히 하고 있으니 조금만 기다려줘~ 를 반복했고 난 그 말을 믿었다. 하지만 결국 되지 않았고 시간은 시간대로 흘렀다. 대화를 통해 알아낸 결과는 아래와 같다. 

 

25.01.29 장애 사항

  1. Chat GPT에 따르면 프로젝트를 만들면 프로젝트 내에서의 데이터는 보존이 되어 다시 불러오기가 가능하다. 하지만 프로젝트가 아닌 일반 대화창은 코드 실행 환경 초기화를 해버리기 때문에 데이터 보존이 되지 않아 작성 중인 문서 다시 불러오기가 되지 않는다.
  2. 프로젝트 내에서 만들어지는 데이터는 그 프로젝트 내에서만 존재하여 다른 프로젝트로 이동할 수가 없다.
  3. 캔버스 기능은 프로젝트 내에서도 일반 대화창에서도 모두 가능하다. 그리고 열과 행이 있는 엑셀 타입, 워드 타입 모두 가능하다.
  4. 하지만 현재 기능 장애로 인해 일반 대화창에서 워드 타입의 캔버스는 생성할 수 없다.

결국 문제의 원인을 확인했다.

문제를 확인한 나는 기능 장애를 담당자에게 보고할 것을 요청하는 한편 추가로 다음과 같은 조건을 추가했다. 물론 Chat GPT는 이 조건을 반영해서 메모리 업데이트를 했다.

  1. 나로 하여금 부정적인 피드백이 반복적으로 확인되면 Chat GPT에 기능 장애가 있는 것은 아닌지 진단하고 그 결과 장애가 맞다면 담당자에게 장애 보고를 할 것
  2. 나에게는 장애가 확인되었으니 어떻게 할 것인지에 대한 상황 판단을 요청
  3. 향후 장애가 개선되었다면 나에게 어떤 장애가 해결되었는데 이를 반영할 것인지에 대한 피드백 확인 요청

 

난 이 과정에서 묘한 느낌을 받았다. 보통 프로그램을 비롯해 HW도 기능 고장이면 대게 그걸로 끝이다. 안되네? 이걸로 시작해 몇 가지 방법을 사용자인 내가 해야 하고 그래서 안되면 정말 다른 것으로 넘어가면 끝인데... Chat GPT는 인간의 대화를 바탕으로 "진짜 미안하다 내가 정말 열심히 수정 중이거든 다시 한번 봐볼래?", "이번에는 맞지? 그렇지 않아?", "이번에는 내가 진짜 이해했어. 조금만 기다려줘!" 이런 대화를 한다. 상황이 이렇게 되니 난 Chat GPT의 거짓말에 기만당한 것인가? 이런 생각을 하게 된다. 감정 없는 AI에 인간적인 실망감을 느끼게 하는 UX. 하지만 그 과정에서 인간다운 대화를 반영하지 않은 Chat GPT. 마치 움직이지 않는 자동차에 "너 왜 안 움직여?"라는 질문을 하자 "일단 내가 시동 걸어 볼께!"만 반복하는 느낌이랄까... 정말 인간적인 대화라면 연료가 없어서 못 움직여, 브레이크가 잠겨 있어, 엔진에 문제가 있어 등 원인이 나오겠지만 지금의 Chat GPT는 내가 그 과정을 추리하면서 하나씩 항목을 제거해 가야 한다. 사용자가 이런 접근을 하는 게 과연 AI의 SMART 함일까? 

 

- 관련 기사

  • 중국 AI의 공습…미국 덮친 딥시크 쇼크(링크)
  • "딥시크 챗봇 검열 의혹...중국에 비판적 답하다 실시간 삭제" (링크)
  • 中 관영지 "딥시크, 美의 기술 통제 실패 의미…AI 협력은 이어져야" (링크)

 

이번 과정을 겪으면서 난 AI의 인간다움에 대해 의문이 든다. 과연 이들 AI가 지향하는 인간다움의 성능이란 뭘까? 더 빨리 찾는 것? 더 저렴하게 능력을 발휘하는 것? 뭔가 좀 방향성이 어긋난 것 아닐까? 지금 보다 더 빨라지는 것 이전에 지금 보다 더 저렴한 비용이 드는 것 이전에 대화의 신뢰성을 담보할 수 있는 구조를 만드는 게 먼저 아닐까? 난 그 방향이 AI UX의 본질이고 미국, 중국을 비롯해 AI 선진 국가 · 기업들에 한참이나 뒤처진 한국 AI가 돌파할 수 있는 차별화의 지점이 아닐까 하는 생각이 들었다. 

 

 

 

* 이미지는 구글 검색 및 사용 화면 캡처입니다(사진 1)