본문 바로가기
온톨로지 기반 추론의 의미론: Neo4j + OWL 하이브리드 파이프라인 (Akash Goyal) 요약 정리핵심 내용 (TL;DR)Neo4j 그래프 데이터베이스와 OWL 온톨로지 추론기(Reasoner)를 결합한 하이브리드 파이프라인을 소개하는 글이다. Neo4j는 "어떤 경로가 존재하는가?"에 답하고, OWL 추론기는 "논리적으로 어떤 사실이 참이어야 하는가?"에 답한다.주요 포인트Neo4j vs OWL 추론기: Neo4j는 명시적 사실만 조회, OWL 추론기는 암묵적 사실을 논리적으로 유도하이브리드 파이프라인: Neo4j → RDF 내보내기 → OWL 추론 실행 → 유도된 사실 Neo4j로 가져오기도구 스택: Neo4j + n10s(Neosemantics) + Python + Owlready2 + HermiT핵심 예시: Dog ⊆ Mammal ⊆ Animal, Rex는 Dog → 추론기가 Rex는.. 2026. 4. 13.
GraphDB / Stardog/ Neo4j - 트리플스토어(Triple Store)와의 비교 GraphDB만든 곳: 불가리아 Ontotext (1995년 창업, 시맨틱 웹 전문 회사)핵심 강점OWL 2 추론 전체 스펙 지원. "이 클래스의 하위 클래스는 뭐다, 이 속성은 대칭이다" 같은 복잡한 논리 규칙도 처리한다.SPARQL 쿼리 언어 지원. RDF 데이터 표준이라 다른 시스템과 연동이 쉽다.시각화 UI가 기본 내장되어 있어서 그래프를 바로 눈으로 볼 수 있다.무료 버전(Free Edition) 이 꽤 쓸만하다. 개인 프로젝트나 PoC 수준에선 돈 안 써도 된다.약점대용량 데이터에서 성능이 Stardog보다 떨어진다는 평가가 있다.엔터프라이즈 기능(클러스터링, 고가용성)은 유료다.주요 사용처BBC, 유럽 의약청(EMA), 각국 국립도서관, 바이오 데이터 연구소Stardog만든 곳: 미국 Sta.. 2026. 4. 12.
Protégé에서 프로덕션까지: Python으로 온톨로지 통합하기 (Pankaj Kumar) 요약 정리핵심 내용 (TL;DR)Owlready2 라이브러리를 사용하면 OWL 온톨로지를 Python 네이티브 객체처럼 다룰 수 있다. Protege에서 설계한 온톨로지를 Python에 로드하고, HermiT 추론기를 돌려 자동 분류까지 수행한 뒤, Flask REST API로 서빙하는 전체 파이프라인을 보여준다."DineWise"라는 레스토랑 추천 앱 시나리오를 통해, if/else 없이 추론기가 자동으로 채식 요리를 분류하고, 이를 API 엔드포인트로 노출하는 실용적 패턴을 다룬다.주요 포인트온톨로지와 Python 통합Owlready2는 OWL 온톨로지를 Python 클래스/인스턴스로 매핑해줌RDF/XML, OWL/XML, NTriples 포맷 자동 인식SQLite3 기반 최적화된 쿼드스토어로 대용량.. 2026. 4. 12.
AI 에이전트 시대, CLI가 MCP를 이기는 진짜 이유 핵심 요약OpenClaw 창시자 Peter Steinberger(GitHub 스타 19만)가 "MCP는 실수였다, Bash가 낫다"고 선언, OpenAI에 합류MCP는 스키마/보일러플레이트로 컨텍스트 윈도우의 30-40%를 소비하며, 크래시와 의존성 문제가 빈번CLI는 컨텍스트 오버헤드 제로, 파이프 조합 가능, 테스트 용이, --json 구조화 출력, 단일 exec 호출이라는 이점상세 요약MCP의 문제점도구 스키마와 메타데이터가 컨텍스트 윈도우의 30-40%를 잡아먹음일부 사례에서는 200K 토큰 중 82K(72%)가 MCP 도구 메타데이터에 소비서버 크래시, 의존성 충돌, 인증 플로우 마찰Perplexity CTO도 MCP에서 이탈을 선언CLI의 장점컨텍스트 오버헤드 제로: 모델이 이미 알고 있는 패.. 2026. 4. 6.
내 노트를 전부 읽는 AI가 있다면 — Obsidian x Claude Code 이야기 요약 정리핵심 내용 (TL;DR)Claude Code는 로컬 디렉토리의 파일을 읽고 쓸 수 있는 AI 도구이며, Obsidian 볼트 폴더를 연결하면 수년간 축적한 개인 노트를 맥락으로 활용하는 AI 어시스턴트가 된다.CLAUDE.md 파일로 에이전트에게 볼트 구조를 설명하고, 스킬(skills)로 반복 작업을 자동화하며, 에이전트 전용 컨텍스트 파일로 "세컨드 브레인"을 구축할 수 있다.주요 포인트Claude vs Claude Code: Claude는 일반 챗봇, Claude Code는 로컬 파일시스템에 접근하는 에이전트 버전Obsidian 연동의 핵심: 볼트 폴더를 Claude Code 작업 디렉토리로 지정 → 노트 전체를 맥락으로 활용CLAUDE.md: 세션 시작 시 자동 로딩되는 지시 파일. 볼트.. 2026. 4. 6.
Claude Skills 2.0 - 2026년 3월, Anthropic이 Claude Code의 스킬 시스템을 전면 업그레이드했습니다. 📢2026년 3월, Anthropic이 Claude Code의 스킬 시스템을 전면 업그레이드했습니다."프롬프트 땜질"에서 "소프트웨어 엔지니어링"으로 — 스킬 개발/평가/최적화의 모든 것을 정리합니다. 🤖 스킬(Skill)이란?스킬은 Claude에게 새로운 능력을 가르치는 설명서입니다.SKILL.md 파일에 "이런 상황에서 이렇게 해줘"라고 적으면, Claude가 자동으로 적절한 상황에서 활용합니다.💡비유하자면, 신입사원에게 주는 업무 매뉴얼과 같습니다. 매뉴얼이 좋으면 신입도 베테랑처럼 일하죠!예를 들어 "배포할 때는 테스트 먼저 돌리고, 빌드하고, 푸시해줘"라고 적어두면 /deploy 한 마디로 자동 실행!🔄 Skills 1.0 vs 2.0 — 무엇이 달라졌나?영역Skills 1.0 🔹Sk.. 2026. 3. 19.
LCEL Based Memory와 RunnablePassthrough의 활용: LangChain의 진화된 메모리 관리 대화형 AI 시스템에서는 사용자와의 지속적인 대화 맥락을 효율적으로 관리하는 것이 중요합니다. 최근 LangChain에서는 LCEL 기반 메모리를 도입하여, 대화의 핵심 정보를 요약하고 저장하는 방식과 함께 불필요한 연산을 줄이기 위해 RunnablePassthrough 개념을 결합한 새로운 메모리 관리 방식을 선보이고 있습니다.LCEL : LangChain Execution Language1. LCEL 기반 메모리 개요LCEL(LangChain Execution Language) 기반 메모리는 기존의 대화 메모리보다 효율적으로 대화의 핵심 정보를 관리할 수 있도록 설계되었습니다. 이 방식은 다음과 같은 특징을 갖습니다.효율적인 메모리 관리:대화 내용을 요약하여 저장함으로써, 메모리의 크기를 제한하면서도.. 2025. 2. 1.
Chat Based Memory: 대화형 AI의 기억 관리 이해하기 오늘은 Chat Based Memory라는 주제로, 대화형 AI에서 어떻게 대화의 맥락을 저장하고 활용하는지 알아보겠습니다. 특히, LangChain 라이브러리의 ConversationSummaryBufferMemory를 활용한 예제 코드를 중심으로 설명드리겠습니다.이 글에서는 코드에 대한 자세한 설명과 함께 제가 느낀 생각도 함께 공유하여, 초보자부터 중급 개발자, AI 연구원까지 쉽게 이해할 수 있도록 구성했습니다.1. Chat Based Memory란?대화형 AI 시스템은 사용자와의 대화를 지속하면서 맥락을 기억해야 합니다. 이를 위해 메모리(memory) 모듈을 사용하면, 이전 대화 내용을 요약하거나 저장하여 이후 응답에 반영할 수 있습니다.주요 포인트:맥락 유지: 이전 대화 내용이 이후 대화에 .. 2025. 2. 1.
LLMChain: 간단하면서 강력한 LangChain의 핵심 구성요소 LangChain에서 LLMChain은 가장 기본적이면서도 중요한 개념입니다.간단히 말해, 하나의 프롬프트(Prompt)와 하나의 LLM(대규모 언어 모델) 호출 과정을 연결해주는 파이프라인이라고 할 수 있는데요.여기에 메모리(Memory)를 더하면, 여러 번의 호출에서 맥락(Context) 을 유지할 수 있어, 대화형 또는 연속적인 작업에 활용하기가 좋아집니다.이번 글에서는 LLMChain이 어떤 원리로 동작하는지, 그리고 어떻게 확장할 수 있는지 살펴보겠습니다.1. LLMChain이란?1) 정의LLMChain은 LangChain에서 가장 기본적인 체인(Chain) 형태입니다.“하나의 입력(문자열)”을 받아서 “하나의 LLM 호출”을 실행한 뒤, “하나의 결과(문자열)”를 반환합니다.예를 들어, [Us.. 2025. 2. 1.
ConversationSummaryBufferMemory: 요약과 버퍼의 절묘한 조합 LangChain에서 메모리(Memory)는 과거 대화를 저장·활용해, LLM(대규모 언어 모델)이 맥락을 유지하고 일관성 있는 답변을 생성하도록 돕는 핵심 요소입니다.이때, 단순히 대화 기록을 통째로 저장하는 방식(예: ConversationBufferMemory)은 대화가 길어지면 토큰 사용량이 폭발할 수 있고,요약만 하는 방식(예: ConversationSummaryMemory)은 최근 대화의 정교한 정보를 잃을 위험이 있죠.ConversationSummaryBufferMemory는 이러한 문제점을 절충한 메모리 방식으로,“최근 대화”는 버퍼(Buffer) 형태로 원문을 유지하고,그 이전 대화는 요약(Summary) 해서 간결하게 저장함으로써“중요한 최신 대화”와 “과거 맥락”을 모두 놓치지 않게 .. 2025. 1. 31.
반응형