論文の概要: RAGdb: A Zero-Dependency, Embeddable Architecture for Multimodal Retrieval-Augmented Generation on the Edge
- arxiv url: http://arxiv.org/abs/2602.22217v1
- Date: Tue, 09 Dec 2025 15:12:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.67849
- Title: RAGdb: A Zero-Dependency, Embeddable Architecture for Multimodal Retrieval-Augmented Generation on the Edge
- Title(参考訳): RAGdb: エッジ上のマルチモーダル検索拡張ジェネレーションのための、ゼロ依存、組込み可能なアーキテクチャ
- Authors: Ahmed Bin Khalid,
- Abstract要約: Retrieval-Augmented Generation (RAG) は、ドメイン固有の最新のデータにおいて、LLM(Large Language Models)を基盤とする標準パラダイムとして確立されている。
RAGdbは、自動マルチモーダル取り込み、ONNXベースの抽出、ハイブリッドベクトル検索を単一のポータブルコンテナに統合する。
システムは標準的なDockerベースのRAGスタックと比較してディスクフットプリントを約99.5%削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) has established itself as the standard paradigm for grounding Large Language Models (LLMs) in domain-specific, up-to-date data. However, the prevailing architecture for RAG has evolved into a complex, distributed stack requiring cloud-hosted vector databases, heavy deep learning frameworks (e.g., PyTorch, CUDA), and high-latency embedding inference servers. This ``infrastructure bloat'' creates a significant barrier to entry for edge computing, air-gapped environments, and privacy-constrained applications where data sovereignty is paramount. This paper introduces RAGdb, a novel monolithic architecture that consolidates automated multimodal ingestion, ONNX-based extraction, and hybrid vector retrieval into a single, portable SQLite container. We propose a deterministic Hybrid Scoring Function (HSF) that combines sublinear TF-IDF vectorization with exact substring boosting, eliminating the need for GPU inference at query time. Experimental evaluation on an Intel i7-1165G7 consumer laptop demonstrates that RAGdb achieves 100\% Recall@1 for entity retrieval and an ingestion efficiency gain of 31.6x during incremental updates compared to cold starts. Furthermore, the system reduces disk footprint by approximately 99.5\% compared to standard Docker-based RAG stacks, establishing the ``Single-File Knowledge Container'' as a viable primitive for decentralized, local-first AI. Keywords: Edge AI, Retrieval-Augmented Generation, Vector Search, Green AI, Serverless Architecture, Knowledge Graphs, Efficient Computing.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、ドメイン固有の最新のデータにおいて、LLM(Large Language Models)を基盤とする標準パラダイムとして確立されている。
しかしながら、RAGの一般的なアーキテクチャは、クラウドホストされたベクトルデータベース、重いディープラーニングフレームワーク(例えば、PyTorch、CUDA)、高遅延埋め込み推論サーバーを必要とする複雑な分散スタックへと進化してきた。
この 'infrastructure bloat'' は、エッジコンピューティング、空調環境、およびデータ主権が最重要であるプライバシーに制約されたアプリケーションへの参入に対する重要な障壁を生み出します。
本稿では,新しいモノリシックアーキテクチャであるRAGdbを紹介する。これは,自動マルチモーダル取り込み,ONNXに基づく抽出,ハイブリッドベクトル検索を単一のポータブルSQLiteコンテナに統合するものだ。
本稿では,サブ線形TF-IDFベクトル化と正確なサブストリングブースティングを組み合わせた決定論的ハイブリッドスコーリング関数(HSF)を提案する。
Intel i7-1165G7 の消費者向けラップトップ上での実験的な評価により、RAGdb はエンティティ検索において 100\% Recall@1 を達成し、コールドスタートに比べてインクリメンタルアップデート時に31.6倍の効率向上を達成している。
さらに、標準的なDockerベースのRAGスタックと比較してディスクフットプリントを約99.5\%削減し、分散化されたローカルファーストAIのための実行可能なプリミティブとして‘Single-File Knowledge Container’を確立する。
キーワード:エッジAI、検索可能な生成、ベクトル検索、グリーンAI、サーバレスアーキテクチャ、知識グラフ、効率的なコンピューティング。
関連論文リスト
- Towards Hyper-Efficient RAG Systems in VecDBs: Distributed Parallel Multi-Resolution Vector Search [5.216774377033164]
我々は,VecDBにおけるRAGのための新しい多分解能ベクトルインデックスフレームワークである textbfSemantic Pyramid Indexing (SPI) を提案する。
オフラインチューニングやモデルトレーニングの分離を必要とする既存の階層的手法とは異なり、SPIはドキュメントの埋め込みの上にセマンティックピラミッドを構築し、クエリ毎に最適な解像度レベルを動的に選択する。
FAISSとQdrantバックエンドのプラグインとしてSPIを実装し、MS MARCO、Natural Questions、マルチモーダル検索ベンチマークを含む複数のRAGタスクでSPIを評価する。
論文 参考訳(メタデータ) (2025-11-12T09:31:08Z) - RAGSmith: A Framework for Finding the Optimal Composition of Retrieval-Augmented Generation Methods Across Datasets [0.0]
RAGSmithは、RAGを9つのテクニックファミリと46,080の実行可能なパイプライン構成上のエンドツーエンドアーキテクチャ検索として扱うフレームワークである。
我々は、ウィキペディア由来の6つのドメイン(Law, Finance, Medicine, Defense Industry, Computer Science)について、それぞれ100の質問を設計、解釈、長期回答のタイプで評価した。
RAGSmithは平均で+3.8%(ドメイン全体で+1.2%から+6.9%)、検索で+12.5%、世代で+7.5%である。
論文 参考訳(メタデータ) (2025-11-03T09:36:27Z) - Domain-Specific Data Generation Framework for RAG Adaptation [58.20906914537952]
Retrieval-Augmented Generation (RAG)は、大規模言語モデルの言語理解と推論能力と外部検索を組み合わせ、ドメイン基底応答を可能にする。
本稿では,様々なRAG適応手法に合わせて,ドメイン基底型質問応答コンテキスト(QAC)トリプルを生成するフレームワークであるRAGenを提案する。
論文 参考訳(メタデータ) (2025-10-13T09:59:49Z) - RAG-IGBench: Innovative Evaluation for RAG-based Interleaved Generation in Open-domain Question Answering [50.42577862494645]
本稿では,RAG-IG(Retrieval-Augmented Generation)に基づくインターリーブドジェネレーション(Interleaved Generation)の課題を評価するためのベンチマークであるRAG-IGBenchを提案する。
RAG-IGは、MLLM(Multimodal large language model)と検索機構を統合し、モデルがコヒーレントなマルチモーダルコンテンツを生成するための外部画像テキスト情報にアクセスできるようにする。
論文 参考訳(メタデータ) (2025-10-11T03:06:39Z) - HetaRAG: Hybrid Deep Retrieval-Augmented Generation across Heterogeneous Data Stores [33.795387138571286]
HetaRAGは、異種データストアからのクロスモーダルエビデンスをオーケストレーションする、ハイブリッドで深層検索可能な拡張生成フレームワークである。
HetaRAGはベクトルインデックス、知識グラフ、フルテキストエンジン、構造化データベースを単一の検索プレーンに統合する。
論文 参考訳(メタデータ) (2025-09-12T06:12:59Z) - Efficient Distributed Retrieval-Augmented Generation for Enhancing Language Model Performance [34.695803671702606]
小言語モデル(SLM)はリソース制約のあるエッジデバイスへの効率的なデプロイをサポートするが、その限られた能力は推論性能を損なう。
Retrieval-augmented Generation(RAG)は、デバイス上でのモデル再トレーニングを必要とせずに、外部データベースを統合することによってモデルパフォーマンスを向上させるための有望なソリューションである。
文書のプライバシーを漏洩させることなく、一般知識と個人知識の両方を通じてデバイス上のSLMを強化する分散RAGフレームワークであるDRAGONを提案する。
論文 参考訳(メタデータ) (2025-04-15T13:53:08Z) - Adaptable Embeddings Network (AEN) [49.1574468325115]
我々はカーネル密度推定(KDE)を用いた新しいデュアルエンコーダアーキテクチャであるAdaptable Embeddings Networks (AEN)を紹介する。
AENは、再トレーニングせずに分類基準のランタイム適応を可能にし、非自己回帰的である。
アーキテクチャのプリプロセスとキャッシュ条件の埋め込み能力は、エッジコンピューティングアプリケーションやリアルタイム監視システムに最適である。
論文 参考訳(メタデータ) (2024-11-21T02:15:52Z) - fVDB: A Deep-Learning Framework for Sparse, Large-Scale, and High-Performance Spatial Intelligence [55.582429009401956]
fVDBは、大規模な3Dデータのディープラーニングのための新しいフレームワークである。
私たちのフレームワークは、既存のパイプラインとの相互運用性を可能にするPyTorchと完全に統合されています。
論文 参考訳(メタデータ) (2024-07-01T20:20:33Z) - Retrieval Augmented Generation Systems: Automatic Dataset Creation,
Evaluation and Boolean Agent Setup [5.464952345664292]
Retrieval Augmented Generation (RAG) システムは、Large-Language Model (LLM) 出力をドメイン固有データと時間機密データで拡張することで大きな人気を得ている。
本稿では,RAG戦略を定量的に比較するために,厳密なデータセット作成と評価のワークフローを提案する。
論文 参考訳(メタデータ) (2024-02-26T12:56:17Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - CREPO: An Open Repository to Benchmark Credal Network Algorithms [78.79752265884109]
クレダルネットワークは、確率質量関数の集合であるクレダルに基づく不正確な確率的グラフィカルモデルである。
CREMAと呼ばれるJavaライブラリが最近リリースされ、クレダルネットワークをモデル化し、処理し、クエリする。
我々は,これらのモデル上での推論タスクの正確な結果とともに,合成クレダルネットワークのオープンリポジトリであるcrrepoを提案する。
論文 参考訳(メタデータ) (2021-05-10T07:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。