공공·국방 대형 시스템(SI/SM) 환경에서 응용 SW 개발과 운영을 수행해왔으며, 최근에는 LLM을 실무 시스템에 적용하는 과정에서 발생하는 오류·비결정성·운영 리스크를 해결하는 구조 설계와 자동화 도구를 개발하고 있습니다.
AI는 의도 해석과 분석에 한정하고, 실행과 상태 변경은 시스템이 통제하도록 분리하는 방식으로 Agent·워크플로우·문서 자동화 도구를 구현해왔습니다.
arXiv 논문 수집·요약 AI 에이전트 (PoC)
기술 동향 파악 및 논문 탐색 업무 자동화를 위해 arXiv 논문 수집·분석 파이프라인을 단기 PoC 형태로 구축
논문 메타데이터 수집, 텍스트 파싱, 요약 및 재검색 흐름을 자동화하여 반복 작업을 축소
외부 사용 패턴 관점에서는 나라장터 입찰 공고보다 arXiv 논문 확인/요약 기능이 더 자주 활용되는 경향을 확인
Intent/Context 중심의 AI 적용 방식(통제형 Agent 설계)
구글에서 제공하는 Vector AI/LLM API를 활용하여 크롤링 데이터에 대한 자연어 기반 분석/요약 기능을 설계·구현
단순 요약이 아니라 프롬프트 엔지니어링을 통해 자연어 입력에서 검색 의도(Intent)를 안정적으로 추출하는 데 집중
추출된 Intent를 기반으로: 기존 DB 데이터 조회
신규 재검색/재수집 여부 판단
분석 파이프라인 재진입 여부 를 조건 분기 로직으로 연결
토큰 비용/오분석/일관성 문제를 고려하여 AI의 역할을 의도 해석 및 분석 보조로 제한하고, 데이터 조회/상태 변경/핵심 로직은 코드 및 워크플로우로 통제하는 방식으로 설계
codex cli
cursor
생성형 AI 활용
프로젝트
AI-Art-Guard (Image Metadata Cleaner)
2026년 1월 - 2026년 1월 · 1개월
"AI 아티스트의 IP 보호를 위한 Zero-Trust 기반 메타데이터 제거 솔루션 개발"
IP 자산 보호 로직 설계: Stable Diffusion 이미지 헤더에 포함되는 프롬프트 및 모델 정보를 100% 제거하여 창작자의 기술적 노하우 유출 방지.
Zero-Trust 재구축 방식 채택: 단순 메타데이터 삭제가 아닌, 원본 픽셀 데이터만 추출하여 새로운 이미지 객체로 재성성하는 방식을 통해 보안 무결성 확보.
운영 효율성 및 UX 최적화: 수동 작업(그림판 복사 등) 대비 처리 속도를 1,000% 이상 개선하는 배치 프로세서와 비개발자를 위한 GUI 환경 구현.
Pillow
Python
TkInter
Windows Batch
프로젝트
GhostRelay – OpenClaw Patch 기반 멀티모델 에이전트 런타임 (오픈소스)
git · 2026년 1월 - 현재 · 2개월
https://github.com/yunjingyu/ghostrelay-openclaw-patch
OpenClaw 기반 에이전트 환경을 실사용 관점에서 확장·보완하기 위해,
대화·추론·도구 실행을 분리한 멀티모델 에이전트 런타임 패치를 설계·구현하고 있습니다.
로컬 LLM(Ollama, GGUF 계열)이 tool calling을 안정적으로 지원하지 못하는 현실을 고려하여,
대화/상시 컨텍스트 처리용 모델과 에이전트·도구 실행용 모델을 분리하는 구조를 채택했습니다.
이를 통해 에이전트 모드가 필요 없는 경우에도 시스템이 자연스럽게 동작하도록 설계했습니다.
주요 특징:
OpenClaw 기반 에이전트 실행을 옵션화한 통제형 사이드카 구조
Main / Lobe / Brain 모델 역할 분리를 통한 비용·안정성·확장성 확보
Ollama 로컬 모델 관리(UI), 스킬 적합성 판단, 실행 가능 조건 가시화
로그·메모리·개인 데이터는 로컬에 격리하고, 패치 코드만 공개하는 오픈소스 운영 방식
MIT License 기반 자유 포크/확장 가능 구조
본 프로젝트는 “모델 하나로 모든 것을 해결”하는 접근 대신,
실제 운영 환경에서 AI 에이전트를 안전하고 지속 가능하게 사용하는 방법에 대한 실험이자 구현입니다.
HTML
openlclaw
Python
qtside6
프로젝트
나라장터 입찰 공고 수집·분석 AI 에이전트
2025년 12월 - 현재 · 3개월
(1) 나라장터 입찰 공고 수집·분석 AI 에이전트
나라장터 Open API가 제공하는 정보가 제한적이고, 입찰 파일 다운로드/분석에 과도한 시간이 소요되는 문제를 해결하기 위해 공고 수집 → 상세 정보 적재 → 파일 다운로드/파싱 → AI 분석까지 이어지는 자동화 시스템을 설계 및 구현
n8n 워크플로우를 통해 주기적으로 전체 공고 목록을 수집하여 DB에 적재하고, 적재된 목록을 기반으로 상세 조회 데이터를 추가 적재하는 2단 적재 구조로 구성
웹에서는 목록/상세 데이터가 모두 확보된 경우에만 공고를 노출하고, AI 분석 버튼 클릭 시에만 실제 상세 사이트 접근 및 파일 다운로드/텍스트 파싱/AI 분석이 실행되도록 설계하여 불필요한 처리 및 비용을 최소화
분석 결과는 DB에 재적재하여 동일 요청에 대한 재분석을 방지(캐싱/재사용)하고, 재요청 시 즉시 결과를 제공하도록 구성
파일 다운로드/압축 해제/텍스트 파싱/브라우저 자동화 처리를 위해 Node.js 기반 별도 처리 경로를 구성하고, Webhook을 통해 n8n 및 AI 분석 파이프라인과 연동
전체 워크플로우는 30개 미만의 n8n 노드로 구성하되, 복잡한 로직은 코드 레벨로 분리하여 유지보수성을 확보
내부 SI 입찰 분석 업무뿐 아니라 대표/의사결정자가 활용 가능한 오픈 서비스 형태를 목표로 설계
docker
MySQL
n8n
NodeJS
생성형 AI 활용
프로젝트
[R&D] SDHO: AI 네이티브 개발을 위한 아키텍처 프로토콜 (정리중)
2025년 12월 - 현재 · 3개월
프로젝트 설명: 1만 라인(10K+ LoC) 이상의 복잡도를 가진 대규모 시스템에서 AI 코딩 도구(Cursor, Vibe Coding)의 맥락 오염과 구조적 붕괴를 방지하기 위한 독자적 아키텍처 방법론 연구.
주요 내용:
물리적 격리(Isolation): Hub(오케스트레이션)와 Raw(실행) 계층을 물리적으로 분리하여, AI가 스파게티 코드를 생성하지 못하도록 강제하는 토폴로지 설계.
결정론적 무결성(Deterministic Integrity): 성능 최적화보다 데이터 정합성을 우선시하는 Commit-then-Requery 패턴을 적용, 데이터 불일치 가능성을 0%로 제거.
실전 적용: 본 방법론을 기반으로 ScalarRep v2(양자화 엔진) 및 RiT-KV(메모리 아키텍처)의 복잡도를 성공적으로 제어함.
성과/산출물:
기술 백서(White Paper): SDHO: Schema-Driven Hub Orchestration for Large-Scale AI-Assisted Architectures 작성 완료.
논문 투고: 현재 관련 내용을 정리하여 arXiv 등재를 위한 Pre-print 논문 작성 중.