LLM 서비스를 구축하다 보면, LLM 모델이 어떻게 동작해야 하는지를 최적화하기 위해서 프롬프트 엔지니어링과 파인 튜닝을 고려합니다. 또한, LLM 모델이 알아야 하는 것에 대해 최적화하기 위해서 프롬프트 엔지니어링과 RAG를 고려합니다.
LLM 서비스가 사용자의 의도에 맞게 동작하도록 하기 위해서 여러가지 최적화 방안을 고려합니다. 최근에 Agentic Context Engineering이라고 하는 새로운 LLM 서비스 최적화 프레임워크를 제시한 논문이 있습니다.
논문 출처 : https://arxiv.org/pdf/2510.04618
Agentic Context Engineering은 에이전트가 문제를 풀면서 얻는 교훈이나 전략을 "플레이북(컨텍스트)"에 누적/조직/정제함으로써, 파라미터가 아니라 컨텍스트 자체가 점진적으로 똑똑해지고(진화) 잘 정리되어, 그 결과 다음 문제를 더 잘 풀고, 반복할수록 성능이나 적응력 그리고 효율이 높아지는 ‘경험 내재화와 진화’가 일어나는 방법론이라고 합니다.

논문에서 제시하는 플로우는 1) 사용자 또는 외부 환경에서 문제/질문 입력, 2) Generator → Reflector → Curator 단계가 순차 또는 반복적으로 실행됨 (각각이 에이전트임), 3)업데이트된 컨텍스트(playbook)가 다음 문제 해결에 반영됩니다.
실제 실험에서는 각 역할(Generator, Reflector, Curator)을 별도의 에이전트(에이전트 구성 요소/모듈)로 구현하였습니다. 각 역할마다 독립된 프롬프트/API 호출로 분리된 에이전트 또는 명확히 역할 분담된 함수/클래스 형태로 배치하고 LLM(예: GPT-OSS, Claude, Gemini 등)을 각각 다른 역할에 할당하거나, 한 모델 내에서 롤(role)을 분리하여 시퀀스를 구성합니다. 이러한 구조 때문에 각 단계별 전문성, 책임 분담, 그리고 오류나 편향 관리가 편리해지고, 결국 실제 컨텍스트 진화 과정이 더 체계적으로 운영된다고 합니다.
대표적으로 RAG만 해도 새로운 데이터를 어떻게 추가할 것이며, 기존의 데이터는 어떻게 제거할 것인지 등의 전략에 대한 고민이 시작되고 있는데요. 앞으로 점점 더 컨텍스트 관리가 중요해지는 상황에서 에이전트를 활용한 새로운 방법은 참신해 보입니다.
향후 LLM 기반 자동화, 에이전트 기반 시스템 설계, 도메인/기업 맞춤형 지식 자동화 등에서 컨텍스트 관리의 표준적 패러다임이 바뀔 가능성을 보여주는 것 같습니다.