공손성
Conversation Marker
- Topic 바뀔 때마다, Polite한 표현 ( Gratitude / Assessment )
- 안녕? ~~~ 좀 해줄 수 있어?
- 고마워~ 너 정말 대단하다.
- 안녕하세요 저는 이런 것들이 필요한데, ~ 해주시겠어요.
- "고마워", "오케이", "좋아", "지금부터"
- RLHF 학습 기술의 대두로 공손함이 모델의 아웃풋에 큰 영향을 주지는 않게 되었지만 그럼에도 Conversation Marker로서 사용하면 효과가 올라가는 것 같더라.
Emotional Stimuli
- Large Language Models Understand and Can be Enhanced by Emotional Stimuli (11.2023)
- Level of Degree 가 영향이 있더라.
프롬포트 구조화
Pythonic Prompt
- Strict Format ( 절취선으로 문맥 구분, `----` )
- Prompting with Pseudo-Code Instruction
- Few Shot을 쓰더라도 다음과 같이 구조화
XML Tags 사용하기
프롬포트는 온도에 민감하다.
- 0.56 - 1 ( 창의력, 변칙을 넣기 위해 )
- Rag 0 - 0.07
- 높은 온도 -> 할루시네이션 비율 (true)
- 직감에 의한 견해들
- Moving Target Syndrome
- Toward General Design Principles for Generative AI Applications (2023.01)
- Is Temperature the Creativity Parameter of Large Language Models (2024.05)
할만한 테스트
- 변수 처리 테스트 (지시문, 외부 텍스트 데이터, 출력 포맷 순서 섞는다던가)
- 단어 선택(Ngram Viewer)
- 동의어 검색 (https://www.thesaurus.com/)
- 영어로 결과물을 뽑은 다음에 한국어로 번역하는게.
프롬포트 엔지니어링 기법 흐름
1세대 - 부족한 모델의 성능을 끌어올리자.
- Reasoning and Logic
- CoT, N Shot (모델 성능이 안나오니깐)
- Reducing Hallucination
- delimeter (구분자)
- Enhanced Generation Technique
- POT, GOT, ..
2세대 - 유저의 만족도. ( 2023년 흐름 )
- User Interaction
- 인간의 피드백을 반영해서 생성
- 유저가 Voting 을 해서, 선호도 조사 등
- Fine-Tuning and Optimization
- Advanced Reasoning and Generation
- Improving Consistency and Coherence
- Manging Emotions and Tone
- Multi Modal
3세대 - 코드 자동화 ( 2024년 흐름 )
- Code Generation and Execution
- Optimization and Efficiency
- Understanding User Intent
- Metacognition and Self-Reflection
- 자기 스스로 만들게 하자.
Zero-Shot 이 좋은 이유
- 편향성이 생기지 않는다.
- API 비용 토큰 수가 줄어든다.
- '/' 슬래시를 통해 구역을 나누거나, '-'을 통해 콜로케이션을 입혀주기도 한다.
- Fewshot은 모델 파라미터 수가 충분히 클 때 효과가 있고, API 비용 토큰 수가 고정으로 들어가는게 부담될 수 있다.
- 모델 발전할 수록 Zero-Shot을 잘 먹더라.
기본적인 것
Rethinking the Role of Demonstrations
- Rethinking the Role of Demonstrations: What Makes In-Context Learning Work? (2022)
- 예시의 품질 중요 ( Gold labels ) 가장 좋지만, 랜덤 예시도 모델의 추론에 도움이 됨. ( 골드 라벨 - 답변에 우선순위 매기는 것 )
- prediction 이라는 단어 써서 high certainty 를 뽑아라라는 말만 해도 고도화가 될 수도 있고
Reasoning and Logic
- CoT
- 헬 난이도
- 토큰비용도 많이 들어가고, 프롬포트의 완성도가 높지 않으면 사용하기 쉽지 않음
- 그럼에도 불구하고 강수진 박사님은 CoT를 많이 쓴다.
- Auto CoT
- 추론을 자동으로 생성하자.
- Zero-Shot CoT
- Let's think step by step.
- 강수진 박사님은 써본적 없는 방법
Let's think step by step 이 어떤 과정을 통해 나왔는지를 생각해보는게 좀 더 도움될 것 같다.
강수진 박사님은 "Let's Break" 를 쓰기도 한다.
- Self-Consistency
- 이끌어낼 수 있는 아이디어가 많다.
특정 도메인에 대해 잘 몰라도, 전문화된 답변을 뽑아내려면?
- 도메인 고밀도로 스케일링하는 방식을 씀
- propotion 을 정함
- 텍스트 스트럭쳐 (서론 본론 결론) 이라면, 서론 0.6, 본론 0.4 한다던지...?
-> 이거는 내용 이해가 잘 안돼서 강의를 들어봐야 알 수 있을 것 같다.
'LLM' 카테고리의 다른 글
DoLa: Decoding by Contrating Layers Improves Factuality in Large Language Models (2) | 2024.09.04 |
---|---|
LLM 얇고 가볍게 흝기 (0) | 2024.08.04 |
파인튜닝 전문가 이승유님 발표 자료 - 테디노트 (0) | 2024.08.04 |