728x90

1. 배경 설명

기존의 대형언어모델(LLM)은 단순한 문장 생성에는 뛰어난 성능을 보였지만, 수학 문제, 논리적 추론, 조건 판단과 같은 복잡한 문제에서는 제한적인 성능을 보였습니다. 이는 모델이 인간처럼 사고 과정을 단계적으로 수행하지 못했기 때문입니다. 이러한 한계를 극복하기 위해 등장한 것이 Chain of Thought (COT) 기법입니다.


2. 개념 또는 정의

**Chain of Thought (사고의 연쇄)**란, 인간이 문제를 해결할 때 거치는 중간 추론 과정을 모델이 명시적으로 표현하고 따르도록 유도하는 기법입니다.
즉, 답을 한 번에 생성하는 대신, 단계별로 논리적인 사고 흐름을 생성한 후 최종 답을 도출하게 합니다.

예시 (단순 산수 문제):
Q: "만약 사과가 3개 있고, 2개를 더 샀다면, 총 몇 개인가?"
기존 출력: "5"
COT 출력: "사과가 3개 있고, 거기에 2개를 더 사면 3 + 2 = 5. 따라서 정답은 5입니다."


3. 어떤 기술인지 구체적으로 설명

COT은 일반적인 모델 아키텍처 변경 없이 프롬프트(prompt) 설계 기법으로 구현됩니다.
핵심은 다음과 같습니다:

  1. **단계적 추론을 보여주는 예제(Few-shot prompt)**를 입력에 포함시킴
  2. 모델이 따라야 할 “사고 흐름”을 학습하거나 추론 시 유도함
  3. 최종 정답 이전에 추론의 “과정”을 먼저 출력하게 만듦

예를 들어 GPT-4에 다음과 같은 형식의 prompt를 사용하면 됩니다:
“Let's think step by step.” 또는 “Think carefully and explain your reasoning.”


4. 주요 기술 요소

  • Few-shot Chain of Thought Prompting: 예시를 포함한 프롬프트를 제공하여 모델이 추론 흐름을 따르게 하는 기법
  • Zero-shot COT: 예시 없이도 특정 문장 삽입(예: “Let's think step by step”)만으로 사고 흐름을 유도
  • Multimodal COT: 이미지와 같은 비언어 정보에 대해서도 사고 흐름을 적용
  • Self-consistency: 여러 번 COT을 수행하고 다수결 등으로 일관된 답을 선택함

5. 활용 방법 및 전망

  • 복잡한 수학 문제 해결
  • 논리 퍼즐 및 조건문 판단
  • 법률/의료 지식 추론
  • 코드 디버깅 및 문제 해결 설명

향후에는 COT 기법이 **모델의 해석 가능성(Explainability)**을 강화하고, AI의 윤리적 판단에도 활용될 수 있습니다. 특히 멀티모달 기반 LLM과 결합 시, 복잡한 의사결정까지 지원할 수 있는 방향으로 확장되고 있습니다.


6. 유사 기술과 비교

구분 일반 추론 방식 Chain of Thought 방식
접근 방식 바로 정답 생성 중간 사고 과정 포함
정확도 간단한 문제에 유리 복잡한 문제에 유리
해석 가능성 낮음 높음
대표 문장 “Answer is 42.” “Step1... Step2... Answer is 42.”

또한 CoT은 Tree of Thought, ReAct, Program-aided Language Model (PAL) 등 다른 추론 프롬프트 기법과 결합되며 점점 진화하고 있습니다.


정보기술연구모임
https://cafe.naver.com/itpewiki

728x90

+ Recent posts