AI에게 괴물 진단법을 가르치며 깨달은 인간 추론의 본질

나는 얼마 전 아주 엉뚱한 상상을 현실로 옮겨보기로 했다. 현실 세계의 질병이 아니라, 판타지 세계관 속에 등장하는 ‘괴물들의 증상’을 보고 그 정체를 맞히는 진단 AI를 만들어보는 것이었다. 평소 LLM의 추론 능력을 테스트하는 것을 좋아하던 차에, 정해진 정답이 없는 가상의 도메인에서 AI가 어떻게 논리를 구축하는지 확인하고 싶다는 호기심이 생겼기 때문이다.

가상의 도메인, 가상의 질병

처음에는 단순히 “피부가 초록색이고 불을 뿜으면 드래곤이다”라는 식의 단순한 규칙을 입력했다. 하지만 이런 방식은 단순한 키워드 매칭에 불과했다. 내가 원한 것은 AI가 증상(Symptom)징후(Sign)를 분석해 진단(Diagnosis)을 내리는, 마치 숙련된 의사나 몬스터 학자처럼 사고하는 과정이었다.

나는 AI에게 ‘몬스터 병리학’이라는 가상의 프레임워크를 학습시켰다. 예를 들어, “눈에서 푸른 빛이 나며 주변 온도가 급격히 낮아지는 현상”을 단순한 특성이 아니라 ‘냉기 과부하 증후군’이라는 증상으로 정의했다. 그리고 이 증상이 나타날 수 있는 후보군인 ‘아이스 트롤’, ‘서리 거인’, ‘언데드 리치’ 사이의 미세한 차이점을 구분하는 논리 구조를 설계했다.

흥미로운 점은 AI가 데이터를 학습할수록, 단순히 텍스트를 조합하는 것이 아니라 배제법(Elimination)을 사용하기 시작했다는 것이다. “온도가 낮아지지만 피부에 비늘이 없다면, 드래곤 계열은 제외하고 언데드 계열일 확률이 높다”는 식의 추론 과정이 나타나기 시작했다.

추론의 함정과 ‘환각’의 재해석

하지만 과정이 순탄치만은 않았다. AI는 가끔 너무 창의적인 진단을 내놓았다. 분명히 입력한 데이터에는 없는 ‘심해의 그림자 괴물’ 같은 존재를 만들어내어, 현재의 증상이 그 희귀한 괴물의 초기 단계라고 주장하는 식이었다. 일반적인 AI 서비스에서는 이를 ‘할루시네이션(Hallucination, 환각)’이라고 부르며 제거해야 할 오류로 취급한다.

그런데 이 지점에서 나는 묘한 기분을 느꼈다. 인간의 추론 역시 때로는 부족한 정보 사이의 공백을 메우기 위해 ‘가설’을 세우는 과정이 아니던가. AI가 내놓은 엉뚱한 진단은 사실 데이터의 빈틈을 메우려는 시도였고, 이는 인간이 새로운 종을 발견하거나 새로운 질병의 가설을 세우는 방식과 놀라울 정도로 닮아 있었다.

나는 AI에게 “모르는 것은 모른다고 말하라”고 강요하는 대신, “가능성이 낮은 가설이라도 근거를 제시하며 추론하라”고 지시를 수정했다. 그러자 AI는 ‘확률적 추론’‘창의적 가설’을 구분하기 시작했다. 이는 단순히 정답을 맞히는 기계가 아니라, 함께 논리를 탐구하는 파트너가 되어가는 과정이었다.

인간의 사고방식을 거울처럼 비추다

괴물 진단 AI를 고도화하면서 내가 정작 배운 것은 AI의 성능이 아니라 인간이 어떻게 생각하는가에 대한 것이었다. 나는 AI에게 진단 기준을 가르치면서, 내가 당연하게 생각했던 ‘상식’들이 사실은 얼마나 많은 편견과 생략된 전제들로 이루어져 있는지 깨달았다.

예를 들어, 나는 “괴물이 흉포하게 날뛴다”는 설명을 넣었을 때 AI가 당연히 ‘분노 상태’라고 판단하길 바랐다. 하지만 AI는 “흉포함의 기준이 무엇인가? 단순히 소리를 지르는 것인가, 아니면 물리적 파괴를 동반하는 것인가?”라고 되물었다. 인간은 맥락 속에서 많은 것을 뭉뚱그려 이해하지만, 논리적 추론의 세계에서는 그 ‘뭉뚱그림’이 곧 오류의 시작점이 된다는 사실을 확인한 순간이었다.

결국 AI를 가르치는 행위는 나 자신의 사고 체계를 정교하게 다듬는 과정이었다. 모호한 형용사를 구체적인 지표로 바꾸고, 직관적인 판단을 단계별 논리로 분해하는 과정 속에서 나는 내가 세상을 바라보는 방식의 허점을 발견할 수 있었다.

논리의 끝에서 마주한 질문

이제 나의 AI는 꽤 그럴듯한 몬스터 진단서를 작성한다. 환자의 증상을 듣고, 가능성 있는 후보군을 나열하며, 확진을 위해 추가로 확인해야 할 질문(예: “피부에서 유황 냄새가 나는지 확인하십시오”)까지 제안한다. 하지만 나는 여전히 이 시스템이 완벽하다고 생각하지 않는다. 아니, 오히려 완벽하지 않기에 가치가 있다고 믿는다.

우리가 AI에게 기대하는 것이 단순한 ‘정답 출력기’라면, 우리는 AI가 가진 가장 강력한 무기인 ‘유연한 추론’을 버리는 셈이 될 것이다. 정답이 없는 영역에서 가설을 세우고, 틀렸음을 인정하며, 다시 논리를 수정하는 과정이야말로 지능의 본질에 가장 가깝기 때문이다.

이번 실험을 통해 나는 AI가 인간을 대체하는 것이 아니라, 인간의 사고 과정을 투명하게 보여주는 거울이 될 수 있음을 배웠다. 만약 여러분이 일상에서 당연하게 여기는 어떤 ‘상식’이 있다면, 그것을 AI에게 아주 세밀하게 가르쳐보길 권한다. 그 과정에서 당신이 얼마나 많은 것을 생략하고 믿어왔는지, 그리고 당신의 논리가 어디서부터 시작되는지를 발견하게 될지도 모른다.

댓글 남기기