https://arxiv.org/html/2508.11116v1#bib.bib1 근래 Rag 에 관심이 생겼는데마침 재밌어 보이는 논문이 나와서 리뷰하게 되었습니다. 초록을 먼저 보고 어떤 내용인지 대략적으로 파악했고,Idea를 대략적으로 이해한 다음,Experiment를 보고 이게 실제 효과가 있는 Method인지 확인했고,이후 구현 부분을 보았습니다. 구현은 논문에서 나온 바와 마찬가지로 Formula 위주로 정리하였습니다.구체적인 방법이 안궁금하시면 Result 까지만 보고 슥 넘기면 되겠습니다. 앞으로 논문 읽을 때 이렇게 읽고 정리해보면 어떨까 싶은데.. 혹시 더 나은 방법이나 피드백 있으시면 조언 부탁드립니다. 초록AS-IS논문 초록 수집 및 인덱스 구성 - 디테일한 검색 어려움.BE-TO오..
전체 글
Here I am!배경 지식동기 - 비동기 개념비동기 프로그래밍CPU 연산 대비 DB, API와 연동 과정에서 발생하는 대기 시간이 훨씬 길다.-> 운영 체제 등 한테 맡기고 그 시간에 CPU가 다른 처리를 하는 것을 Non-Blocking 하다고 합니다.서브 루틴메인 루틴 안에 종속된 루틴메인 루틴 안에서 서브 루틴을 실행하면 서브 루틴의 코드를 실행한 뒤 다시 메인 루틴으로 돌아옴.콜 스택 ( 서브 루틴이 끝난 후 자원 모두 회수 )코루틴cooperative routine ( 서로 협력하는 관계 )서로 대등한 관계이며, 특정 시점에 상대방의 코드를 실행함.함수가 종료되지 않은 상태에서 메인 루틴의 코드를 실행한 뒤 다시 돌아와서 코루틴의 코드를 실행함.코루틴 함수도 종료되지 않았다면( 대기 상태 ), 코루틴 코드를 여..
Memory Flow Chart Context WindowContext Window란?AI 모델이 한 번에 처리할 수 있는 입력 텍스트의 최대 양Context Window란? AI 모델이 한 번에 처리할 수 있는 입력 텍스트의 최대 양 refence: https://docs.anthropic.com/en/docs/build-with-claude/context-windows#the-context-window-with-extended-thinking200K Token이 Max Token 입니다.$$ context\_window = (input\_tokens - previous\_thinking\_tokens) + current\_turn\_tokens $$ Normal Ver. V.S. Extended T..
MemTensor- 2025.07.08장기 문맥 추론, 지속적인 개인화, 지식 일관성 확보 기존 LLM은 모든 지식을 파라미터(모델 내부 값)으로 저장하거나, 잠깐 쓰고 마는 짧은 컨택스트 (Context Window)에 의존합니다.이를 보강하기 위해, 인터넷 또는 외부 DB에서 정보를 검색해 모델에 넣어주지만, 검색한 내용이 LLM 내 축적되지 않습니다. 최근 연구에 따르면, 파라미터 메모리와 외부 검색 사이에 "명시적 메모리 계층"을 추가하면 특정 지식을 따로 보관했다가 필요할 때만 꺼내 쓰므로 비용(메모리/계산량)을 줄일 수 있다고 합니다. 더보기Hongkang Yang, Zehao Lin, Wenjin Wang, Hao Wu, Zhiyu Li, Bo Tang, Wenqiang Wei, Jinb..