LangChain의 메모리 개념과 ConversationBufferMemory 완벽 이해하기 요즘 LangChain을 써서 LLM(Language Model) 기반 애플리케이션을 개발하는 분들이 많습니다.LLM을 여러 차례 호출하면서, “이전 대화 내용이나 문맥을 모델이 기억하고 있다면 좋을 텐데…”라고 생각해 보신 적 있으실 거예요.LangChain은 이러한 “메모리(Memory)” 개념을 도입해, 대화형 AI나 컨텍스트가 중요한 작업에서 훨씬 더 자연스러운 흐름을 구현할 수 있도록 도와줍니다.오늘은 LangChain의 메모리 개념과, 가장 기본적이면서도 자주 쓰이는 ConversationBufferMemory에 대해 자세히 살펴보겠습니다.1. LangChain의 메모리(Memory)란 무엇인가?1) 메모리가 필요한 이유일반적으로 LLM은 하나의 요청(prompt) 을 받으면, 그에 대한 단발.. 2025. 1. 29. OpenAI 사용량 추적의 비밀병기: get_openai_callback LLM(Language Model)을 활용할 때, 가장 골치가 아픈 점 중 하나가 사용량 관리입니다.토큰 사용량이 많아지면 비용이 기하급수적으로 늘어날 수 있기 때문이죠.그렇다면 어떤 요청에 얼마나 많은 토큰이 쓰이고 있는지, 총 비용이 얼마나 되는지를실시간으로 추적할 수 있으면 어떨까요?오늘은 LangChain에서 제공하는 get_openai_callback 을 소개해 드리겠습니다.이걸 활용하면 OpenAI API를 쓰는 과정에서 토큰 사용량과 비용을 한눈에 파악할 수 있어요.1. get_openai_callback 이 뭔가요?get_openai_callback 은 OpenAI API에 요청을 보낼 때마다,몇 개의 토큰을 사용했는지, 얼마의 비용이 발생했는지 등을 콜백(callback) 방식으로 알려주.. 2025. 1. 28. LLM - LangChain에서 Prompt Template을 어떻게 활용하고 구성할 수 있는지 들어가며최근 생성형 AI 서비스의 대두로, LLM(Large Language Model)을 활용한 애플리케이션이 폭발적으로 증가하고 있습니다. 사용자는 단순히 "이 질문에 답해줘"가 아닌, 좀 더 구체적이고 세심한 "프롬프트(prompt)"를 통해 원하는 정보를 얻어내곤 합니다.그렇다면 이런 프롬프트를 체계적으로 다루고, 상황에 맞추어 동적으로 생성하는 방법은 없을까요? 이러한 문제를 해결하기 위해, LangChain은 다양한 구성 요소와 모듈을 제공하며 특히, PromptTemplate은 LLM과의 상호작용에 핵심적인 역할을 합니다.이번 포스팅에서는 LangChain에서 제공하는 PromptTemplate을 중점적으로 살펴보며, 어떻게 정의하고, 어떻게 사용하는지를 소개해드리려 합니다.PromptTem.. 2025. 1. 15. LLM - Langchain 시작하기 + VectorDB Langchain 시작하기 + VectorDB 앞으로 할 기술스택 랭체인이란 ? 초거대 언어모델(LLM) 어플리케이션 개발 프레임워크 프레임워크? = 관련 도구 모음 https://www.langchain.com/ 도구 모음을 왜 사용함 ? 굳이 안써도 됨 따로 갖다가 붙여도 ㄱㅊ ✅ 근데 ? 여러가지 연결할때 편리함 교체 편리함 추상화로 코드 짧아짐 랭체인 말고 없음 ? 근데 왜 랭체인 배움 ? 제일 많이 쓰니까 지루한 설명 문맥 인식: 언어 모델을 문맥 소스(프롬프트 지침, 몇 개의 샷 예시, 응답의 근거가 되는 콘텐츠 등)에 연결합니다. 추론: 언어 모델을 사용하여 추론(제공된 컨텍스트에 따라 답변하는 방법, 취해야 할 조치 등)합니다. 이 프레임워크는 여러 부분으로 구성되어 있습니다. LangCh.. 2024. 3. 19. 이전 1 다음 반응형