論文の概要: Efficient Neuro-Symbolic Retrieval-Augmented Generation through Adaptive Query Routing
- arxiv url: http://arxiv.org/abs/2506.12981v1
- Date: Sun, 15 Jun 2025 22:35:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.192297
- Title: Efficient Neuro-Symbolic Retrieval-Augmented Generation through Adaptive Query Routing
- Title(参考訳): 適応的クエリルーティングによる効率的なニューロシンボリック検索生成
- Authors: Safayat Bin Hakim, Muhammad Adil, Alvaro Velasquez, Houbing Herbert Song,
- Abstract要約: 実時間複雑性とシステム負荷評価に基づく適応型クエリルーティングを導入した,ニューロシンボリックなフレームワークであるSymRAGを提案する。
SymRAGは97.6~100.0%の精度でCPU使用率と処理時間を大幅に低下させる。
これらの結果は、スケーラブルで持続可能なAIシステムのための適応型ニューロシンボリックルーティングの可能性を強調している。
- 参考スコア(独自算出の注目度): 8.775121469887033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems address factual inconsistencies in Large Language Models by grounding generation in external knowledge, yet they face a fundamental efficiency problem: simple queries consume computational resources equivalent to complex multi-hop reasoning tasks. We present SymRAG, a neuro-symbolic framework that introduces adaptive query routing based on real-time complexity and system load assessments. SymRAG dynamically selects symbolic, neural, or hybrid processing paths to align resource use with query demands. Evaluated on 2,000 queries from HotpotQA and DROP using Llama-3.2-3B and Mistral-7B models, SymRAG achieves 97.6--100.0% exact match accuracy with significantly lower CPU utilization (3.6--6.2%) and processing time (0.985--3.165s). Disabling adaptive logic results in 169--1151% increase in processing time, highlighting the framework's impact. These results underscore the potential of adaptive neuro-symbolic routing for scalable, sustainable AI systems.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは、外部知識を基礎とする大規模言語モデルの現実的不整合に対処するが、単純なクエリは複雑なマルチホップ推論タスクと同等の計算資源を消費する、という根本的な効率の問題に直面している。
実時間複雑性とシステム負荷評価に基づく適応型クエリルーティングを導入した,ニューロシンボリックなフレームワークであるSymRAGを提案する。
SymRAGは、シンボリック、ニューラル、ハイブリッドの処理パスを動的に選択し、リソース使用とクエリ要求を一致させる。
Llama-3.2-3BとMistral-7Bモデルを用いてHotpotQAとDROPから2000のクエリを評価し、SymRAGは97.6~100.0%の正確なマッチング精度を達成し、CPU使用率を著しく低く(3.6~6.2%)、処理時間(0.985~3.165s)とした。適応論理の無効化により処理時間が169~1151%増加し、フレームワークへの影響を強調している。
これらの結果は、スケーラブルで持続可能なAIシステムのための適応型ニューロシンボリックルーティングの可能性を強調している。
関連論文リスト
- Automatic Dataset Generation for Knowledge Intensive Question Answering Tasks [10.562940259841623]
本稿では,知識集約型QAタスクにおけるLarge Language Models(LLMs)の拡張手法を提案する。
提案システムは,自動QAジェネレータとモデルファインタナーを備え,パープレキシティ,ROUGE,BLEU,BERTScoreを用いて評価する。
実験は、適応型人工知能(AI)システムの開発において、論理的コヒーレンスと事実的精度の改善を示す。
論文 参考訳(メタデータ) (2025-05-20T11:16:29Z) - Efficient and Scalable Neural Symbolic Search for Knowledge Graph Complex Query Answering [50.1887329564127]
複雑なクエリに対する効率的でスケーラブルなシンボル検索フレームワークを提案する。
我々のフレームワークは、ほぼ同じ性能を維持しながら、シンボリックメソッドの計算負荷を90%削減する。
論文 参考訳(メタデータ) (2025-05-13T01:24:09Z) - ZeroLM: Data-Free Transformer Architecture Search for Language Models [54.83882149157548]
現在の自動プロキシ発見アプローチは、検索時間の拡張、データの過度なオーバーフィットへの感受性、構造的な複雑さに悩まされている。
本稿では,効率的な重み統計によるモデルキャパシティの定量化を目的とした,新しいゼロコストプロキシ手法を提案する。
本評価は,FlexiBERT ベンチマークで Spearman's rho 0.76 と Kendall's tau 0.53 を達成し,このアプローチの優位性を示すものである。
論文 参考訳(メタデータ) (2025-03-24T13:11:22Z) - Fast or Better? Balancing Accuracy and Cost in Retrieval-Augmented Generation with Flexible User Control [52.405085773954596]
Retrieval-Augmented Generation (RAG) は、大規模言語モデル幻覚を緩和するための強力なアプローチとして登場した。
既存のRAGフレームワークは、しばしば無差別に検索を適用し、非効率な再検索につながる。
本稿では,精度・コストのトレードオフを動的に調整できる新しいユーザ制御可能なRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:56:20Z) - Advancing Spatio-Temporal Processing in Spiking Neural Networks through Adaptation [6.233189707488025]
ニューロモルフィックハードウェア上のニューラルネットワークは、非喫煙者よりも消費電力の少ないオーダーを約束する。
このようなシステム上でのスパイクベースの計算のための標準的なニューロンモデルは、長い間、統合と火災(LIF)ニューロンであった。
いわゆるアダプティブLIFニューロンの根源はよく分かっていない。
論文 参考訳(メタデータ) (2024-08-14T12:49:58Z) - Evolving Connectivity for Recurrent Spiking Neural Networks [8.80300633999542]
リカレントニューラルネットワーク(RSNN)は、人工知能の進歩に大きな可能性を秘めている。
本稿では、RSNNをトレーニングするための推論のみの手法である、進化的接続性(EC)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-28T07:08:25Z) - MISNN: Multiple Imputation via Semi-parametric Neural Networks [9.594714330925703]
バイオメディカル・ソーシャル・エコノメトリー研究において、多重計算(Multiple Imputation, MI)は、欠落した価値問題に広く応用されている。
提案するMISNNは,MIの特徴選択を取り入れた,新規で効率的なアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-02T21:45:36Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Dynamic Scheduling for Stochastic Edge-Cloud Computing Environments
using A3C learning and Residual Recurrent Neural Networks [30.61220416710614]
A-Advantage-Actor-Critic(A3C)学習は、データが少ない動的なシナリオに迅速に適応することが知られ、Residual Recurrent Neural Network(R2N2)はモデルパラメータを迅速に更新する。
我々はR2N2アーキテクチャを用いて、多数のホストパラメータとタスクパラメータを時間パターンとともにキャプチャし、効率的なスケジューリング決定を提供する。
実世界のデータセットで実施された実験では、エネルギー消費、応答時間、ServiceLevelAgreementおよびランニングコストがそれぞれ14.4%、7.74%、31.9%、および4.64%で大幅に改善された。
論文 参考訳(メタデータ) (2020-09-01T13:36:34Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - RIS Enhanced Massive Non-orthogonal Multiple Access Networks: Deployment
and Passive Beamforming Design [116.88396201197533]
再構成可能なインテリジェントサーフェス(RIS)の配置と受動ビームフォーミング設計のための新しいフレームワークを提案する。
エネルギー効率を最大化するために、共同配置、位相シフト設計、および電力配分の問題を定式化する。
リアルタイムデータセットを活用することで,ユーザの遠隔交通需要を予測するために,LSTM(Long Short-term memory)ベースのエコー状態ネットワーク(ESN)アルゴリズムを提案する。
RISの展開と設計の連立問題を解くために,D3QNに基づく位置取得と位相制御アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-28T14:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。