프롬프팅 기법
sol-commits Sep 29, 2025
프롬프트의 기본 구성
- 프롬프트 구성 요소
역할(Role) → 맥락(Context) → 질문/과업(Instruction/Task) → 예시(Examples, few-shot)
→ 지시(Instruction)는 뒤쪽에 배치하는 편이 모델이 과업 실행에 더 집중하는 경향
모델 출력 제어
temperature(무작위성)- 낮은 temperature(결정적), 높은 temperature(창의적)
Top-p(누적확률컷)
Max length(최대 생성 길이)
Stop sequences
Frequency/Persistence(=Presence) penalty
→ 창의성·장황함·반복 등을 조절
핵심 기초 기법
| Instruction Prompting | • 명확한 과업 정의(입력·출력 형식, 평가기준, 제약조건)를 지시로 분명히 적어 성능을 끌어올리는 가장 기본적인 방식 |
| Role Prompting | • 모델에 역할/인물상을 부여해 어조·깊이·관점을 제어 • 주의점: 훈련 데이터의 편향을 반영할 수 있고 역할 표현이 빈약할 경우 성능이 떨어질 수 있음 |
| Shot Prompting | • Zero-shot / One-shot / Few-shot: 예시가 늘어날수록 모델이 원하는 출력 구조와 판단 기준을 더 잘 따라옴. 특히 원하는 출력 포맷을 예시로 암시하기에 유용 |
| Priming | • 대화의 첫 프롬프트로 스타일·구조·에외 규칙을 설정해 이후 턴 전체의 출력을 안정화 |
추론(Reasoning) 성능을 끌어올리는 기법
| Chain-of-Thought(CoT) | • 중간 추론 과정을 말로 풀게 하여 산술·상식·기호추론 과제 성능을 개선 • Zero-shot CoT: 질문 끝에 “Let’s think step by step” 같은 문구만 추가해도 CoT가 유도됨 |
| Self-Consistency | • 같은 프롬프트를 여러 번 실행해 다수결/다양성 투표로 최종 답을 고르는 방식 • CoT와 함께 쓰면 특히 강력 |
| Least-to-Most(LtM) | • 큰 문제를 여러 하위 문제로 나누어 순차 해결 후 통합 • “먼저 무엇을 판단해야 하는가?”를 명시적으로 열거시키는 틀 사용 |
| Generated-Knowledge(GK) Prompting | • 본답변 전에 관련 배경지식부터 생성하게 한 뒤 그 지식을 근거로 최종 답을 작성하게 하는 방식 |
| Re-reading(RE2) | • 모델이 질문을 다시 읽어 핵심을 재확인하게 하여 세부 누락·오독을 줄임 • 복잡·정밀 과제에서 특히 유용 |
| Rephrase-and-Respond(RaR) | • 먼저 질문을 바꿔 말하게(재진술)한 뒤 답변하도록 해 모호성 감소·의도 정렬을 유도 • 과도한 재진술은 원의도 왜곡 위험 |
| System-2 Attention(S2A) | • 질문에서 불필요 정보를 제거하고 핵심만 남기도록 유도 |
| Emotion Prompting | • 정서적 어조/동기 부여 문구로 모델의 주의·정확도를 높임 |
| SImToM | • Theory-of-Mind이 필요한 과제에서 두 단계(관점 파악 → 질의응답)로 성능을 높임 |