DKST LLM Chat Server는 강력한 지능형 기능을 결합한 차세대 로컬 LLM 웹 인터페이스입니다. LM Studio, Ollama 등 로컬 API 중계를 넘어, 독자적인 **MCP(Model Context Protocol)**와 Supertonic2 고품질 TTS를 통합해 탁월한 개인 비서 경험을 제공합니다.
특히 FTS5와 Vector 기반의 하이브리드 검색은 방대한 장기 기억을 초고속으로 인출하여 프리필(Pre-fill) 속도를 혁신적으로 단축합니다. 여기에 유저 프로필 기억 기능으로 개인화된 맞춤형 답변을 제공하며, 점수 평가 기반의 지능형 망각 시스템을 통해 불필요한 정보는 걸러내고 핵심적인 기억만을 유지함으로써 개인 비서로써의 품질을 높였습니다.
- FTS5 (Full-Text Search): 키워드 매칭을 통한 정확하고 빠른 정보 검색.
- Vector Search: 의미 기반의 유사도 검색으로 맥락에 맞는 정보 탐색.
- FTS5 + Vector: 두 방식의 장점을 결합한 하이브리드 검색으로 방대한 데이터에서도 초고속 기억 인출 구현.
- 유저 프로필: 이름, 직업, 선호도 등 사용자의 기본 정보를 기억하여 개인화된 답변 제공.
- 장기 기억: 대화 중 언급된 중요한 정보들을 자동으로 저장하고 필요 시 검색하여 활용.
- 지능형 망각: 점수 평가 기반의 망각 시스템으로 불필요한 정보는 걸러내고 핵심 기억만 유지.
- CPU 최적화: 멀티스레딩 기술로 CPU 환경에서도 고품질 음성 합성.
- 자연스러운 발음: 한국어 발음 사전을 통한 정확하고 자연스러운 억양.
- 실시간 스트리밍: 음성 합성을 실시간으로 스트리밍하여 지연 없는 대화 경험.
- 웹 검색: 실시간 웹 정보 검색.
- 멀티모달 비전: 이미지 업로드 및 분석 지원 (LM Studio Vision 모델 연동).
Wails dev
macOS: ./build-macOS.sh | Windows: build-Windows.bat | Linux: ./build-Linux.sh
- 앱 실행 후 Start Server를 클릭합니다.
- 챗봇 접속 (UI):
https://localhost:8080 - API/MCP 연결:
http://localhost:8081
- 챗봇 접속 (UI):
- Settings에서 연동할 로컬 LLM 주소를 입력합니다 (예:
http://localhost:1234). - 저장 폴더 구조는 공통으로 다음처럼 사용합니다.
- 인증서는
cert/ - SQLite 메모리 데이터베이스는
memory/memory.db - 발음 사전과 편집기는
dictionary/ - Supertonic 2 자산은
assets/tts/supertonic2/ - 임베딩 모델은
assets/embeddings/multilingual-e5-small/ - ONNX Runtime은
assets/runtime/onnxruntime/
- 인증서는
- 채팅창에서 질문하거나, 이미지를 붙여넣어 비전 기능을 테스트하고, "내 생일은 1월 1일이야" 같이 말해 AI의 기억력을 확인해 보세요.
Created by DINKIssTyle on 2026. Copyright (C) 2026 DINKI'ssTyle. All rights reserved.
