LLM으로 부터 사용자가 원하는 결과를 도출하기 위해 Input 혹은 Instruction
대화형 AI가 생성하는 결과물의 품질을 높일 수 있는 prompt 입력값들의 조합을 찾는 작업
<aside> 🇰🇷 Instruction: 모델이 수행하기를 원하는 특정 태스크 또는 지사 사항
Context: 모델이 보다 더 나은 답변을 하도록 유도하는 외부 정보 또는 추가 내용
Input Data: 답을 구하고자 하는 것에 대한 인풋 또는 질문
Output Indicator: 결과물의 유형 또는 형식을 나타내는 요소
</aside>
단순히 LLM이 보요하고 있는 내재된 능력치를 발굴하는 것은 Prompt Engineering이 아닌 Prompt Discovering이라고 생각 → 논문 1개로 끝
A Multitask, Multilingual, Multimodel Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity
Chain-of-thought prompting
Optimization, Tuning
어떻게 하면 더 고품질의 결과물을 도출 할 수 있을까? 어떻게 하면 되던 것도 안되게 만들어낼 수 있을까?
Let’s think step by step (단계별로 생각해보자), Self-Consistency
Ex) 한국이 지금 오전 11시 24분인데 그럼 시애틀 현재 시간은 몇시야?
→ 프롬프트 튜닝
Prompt Manager(Cross Function Modality)