LLM

테디노트 - 강수진 박사님 프롬포트 노하우

scone 2024. 8. 10. 21:25

테디노트 - 강수진 박사님 프롬포트 노하우

 

공손성

Conversation Marker

  • Topic 바뀔 때마다, Polite한 표현 ( Gratitude / Assessment )
    • 안녕? ~~~ 좀 해줄 수 있어?
    • 고마워~ 너 정말 대단하다.
    • 안녕하세요 저는 이런 것들이 필요한데, ~ 해주시겠어요.
  • "고마워", "오케이", "좋아", "지금부터"
  • RLHF 학습 기술의 대두로 공손함이 모델의 아웃풋에 큰 영향을 주지는 않게 되었지만 그럼에도 Conversation Marker로서 사용하면 효과가 올라가는 것 같더라.

 

Emotional Stimuli

  • Large Language Models Understand and Can be Enhanced by Emotional Stimuli (11.2023)
  • Level of Degree 가 영향이 있더라.

 

프롬포트 구조화

Pythonic Prompt

  • Strict Format ( 절취선으로 문맥 구분, `----` )
  • Prompting with Pseudo-Code Instruction

Pythonic Prompt
https://arxiv.org/pdf/2305.11790

 

강수진 박사님 프롬포트
결과물

 

 

  • Few Shot을 쓰더라도 다음과 같이 구조화

 

XML Tags 사용하기

 

프롬포트는 온도에 민감하다.

  • 0.56 - 1 ( 창의력, 변칙을 넣기 위해 )
  • Rag 0 - 0.07
  • 높은 온도 -> 할루시네이션 비율 (true)
  • 직감에 의한 견해들
    • Moving Target Syndrome
  • Toward General Design Principles for Generative AI Applications (2023.01)
  • Is Temperature the Creativity Parameter of Large Language Models (2024.05)

 

할만한 테스트

 

프롬포트 엔지니어링 기법 흐름

1세대 - 부족한 모델의 성능을 끌어올리자.

  • Reasoning and Logic
    • CoT, N Shot (모델 성능이 안나오니깐)
  • Reducing Hallucination
    • delimeter (구분자)
  • Enhanced Generation Technique
    • POT, GOT, ..

2세대 - 유저의 만족도. ( 2023년 흐름 )

  • User Interaction
    • 인간의 피드백을 반영해서 생성
    • 유저가 Voting 을 해서, 선호도 조사 등
  • Fine-Tuning and Optimization
  • Advanced Reasoning and Generation
  • Improving Consistency and Coherence
  • Manging Emotions and Tone
    • Multi Modal

3세대 - 코드 자동화 ( 2024년 흐름 )

  • Code Generation and Execution
  • Optimization and Efficiency
  • Understanding User Intent
  • Metacognition and Self-Reflection
    • 자기 스스로 만들게 하자.

 

Zero-Shot 이 좋은 이유

  • 편향성이 생기지 않는다.
  • API 비용 토큰 수가 줄어든다.
  • '/' 슬래시를 통해 구역을 나누거나, '-'을 통해 콜로케이션을 입혀주기도 한다.
  • Fewshot은 모델 파라미터 수가 충분히 클 때 효과가 있고, API 비용 토큰 수가 고정으로 들어가는게 부담될 수 있다.
  • 모델 발전할 수록 Zero-Shot을 잘 먹더라.

 

기본적인 것

Rethinking the Role of Demonstrations

  • Rethinking the Role of Demonstrations: What Makes In-Context Learning Work? (2022)
  • 예시의 품질 중요 ( Gold labels ) 가장 좋지만, 랜덤 예시도 모델의 추론에 도움이 됨. ( 골드 라벨 - 답변에 우선순위 매기는 것 )
  • prediction 이라는 단어 써서 high certainty 를 뽑아라라는 말만 해도 고도화가 될 수도 있고

 

Reasoning and Logic

  • CoT
    • 헬 난이도
    • 토큰비용도 많이 들어가고, 프롬포트의 완성도가 높지 않으면 사용하기 쉽지 않음
    • 그럼에도 불구하고 강수진 박사님은 CoT를 많이 쓴다.
  • Auto CoT
    • 추론을 자동으로 생성하자.
  • Zero-Shot CoT
    • Let's think step by step.
    • 강수진 박사님은 써본적 없는 방법

Let's think step by step 이 어떤 과정을 통해 나왔는지를 생각해보는게 좀 더 도움될 것 같다.

강수진 박사님은 "Let's Break" 를 쓰기도 한다.

  • Self-Consistency
    • 이끌어낼 수 있는 아이디어가 많다.

 

특정 도메인에 대해 잘 몰라도, 전문화된 답변을 뽑아내려면?

  • 도메인 고밀도로 스케일링하는 방식을 씀
  • propotion 을 정함
  • 텍스트 스트럭쳐 (서론 본론 결론) 이라면, 서론 0.6, 본론 0.4 한다던지...?

-> 이거는 내용 이해가 잘 안돼서 강의를 들어봐야 알 수 있을 것 같다.

 

 

프롬프트 엔지니어링 톱아보기.pdf
14.90MB