Chat GPT가 나아가야 할 지식 구조는?
- 관련 글
- Chat GPT를 통해 본 인간다움이란?(링크)
Chat GPT를 사용하면서 느끼는 게 있는데 과연 Chat GPT의 지식 습득 구조는 과연 합리적일까 하는 의문이다. SW 구조상에서는 내가 이해할 수 없는 구조가 있겠지만 적어도 사용하면서 추리하게 되는 구조가 있다. 이건 어디까지나 나의 사용 경험에서 오는 것임을 밝힌다.
검색 엔진을 통해서 확인되는 1차원적인 정보들만 취합하여 논리적인 해석을 시도한다. Chat GPT의 이 방법으로는 개인의 인지 능력을 아득히 뛰어넘는 1차원적인 정보 검색과 Chat GPT의 논리 추론 방법으로 인해 개인 이상의 능력을 발휘하기 쉬우나 문제는 그 깊이다. 통찰력을 가진 사람에게 과연 이 방법으로 원하는 질문의 답이 가능할까? 평면적인 정보 검색으로 인해 얻게 되는 정보의 질은 과연 얼마나 뛰어난 것일까? 즉, 고만고만한 것들 사이에서 고만고만한 것들이 나오게 되는 현상은 없을까? 하는 그런 생각 말이다. 그런 관점에서 프로그램 코딩이나 수학 문제처럼 명확한 답이 있고 논리 구조가 있는 것에서 답을 찾는 것과 그렇지 않은 사고의 영역에서 답을 찾는 것에는 현격한 차이가 있고 현재의 Chat GPT는 그런 한계를 극복하기 위한 지식 습득 구조는 한계가 있지 않는지 생각한다.
그러므로 지식의 깊이를 이해하는 관점이 필요하다. 나는 Chat GPT를 사용하는 과정에서 특정 사이트를 자료 참고할 것을 메모리 업데이트했는데 그럼에도 그 참고 과정이 제대로 기획 설계되었다고 보지는 않는다. 예로 삼정 KPMG의 무료 PDF 공개된 페이지를 참고해 달라고 요청했으나 그 관점이 반영된 답을 제대로 내놓지 못하는 것이다. 너무나 방대한 웹 검색에서 평면적인 정보 습득이 아니라 사용자의 주제와 관련된 영역에서 높은 수준의 사이트 내에서 키워드 검색과 그에 따른 결과물 PDF를 획득하고 그 PDF에서 다시 언어 인지를 통한 정보 학습을 한다면 지식의 깊이 측면에서는 더 높은 통찰력을 보여줄 수 있지 않을까? 즉, 정보 접근에 대한 다층적인 레이어의 개념을 이해하는 것 말이다. 그러려면 Chat GPT는 '얼마나 많은 평면적인 정보 수집을 할 것인가?' 보다 '얼마나 더 수직적인 정보의 깊이(층)를 이해하는가?'의 방향이 필요하다.
하지만 이것이 Chat GPT가 통찰력이 없다는 뜻은 아니다. 내가 A에 대한 주제에 관심이 높다는 것을 학습했다면 B에 대한걸 물어도 B에 대한 대답에 더해 A와 B의 연결점에 대한 추론과 그에 대한 결과값까지 함께 출력한다. 물론 이것이 정보의 다층적인 이해를 통한 깊이를 가지고 있다고는 할 수 없지만 내가 인지하지 못한 부분까지 연결 지점을 파악해 알려준다는 점에서 수평적인 정보 조합을 통한 통찰력을 가지고 있다. 이런 부분에서 나는 '?!?! Chat GPT가 이런 접근을 할 수 있다고?'의 신선한 느낌을 받았다. 그리고 그 내용은 유용했다.
그래서 난 이걸 '살얼음 아래 물고기들'이라 부른다. 살얼음 위에 내려다보면 평면적으로는 물고기가 존재하지 않는다. 비록 물고기가 보이더라도 살얼음 위에는 아무것도 없기 때문이다. 하지만 관점을 바꿔 수직적으로 본다면 물고기는 살얼음 아래 존재하고 있다. 존재하고 있지만 존재하지 않는 상태. 만약 Chat GPT가 이 관점을 이해한다면 한 번 더 진보할 수 있지 않을까? 그리고 Chat GPT가 이해하지 못한 그 관점을 한국 AI가 해낸다면 그 방향 또한 한국 AI의 돌파구가 될 수 있지 않을까? 기획하는 입장에서 난 그렇게 생각한다.