論文の概要: Atomic Information Flow: A Network Flow Model for Tool Attributions in RAG Systems
- arxiv url: http://arxiv.org/abs/2602.04912v1
- Date: Wed, 04 Feb 2026 01:51:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.534802
- Title: Atomic Information Flow: A Network Flow Model for Tool Attributions in RAG Systems
- Title(参考訳): 原子情報フロー:RAGシステムにおけるツール属性のネットワークフローモデル
- Authors: James Gao, Josh Zhou, Qi Sun, Ryan Huang, Steven Yoo,
- Abstract要約: グラフベースのネットワークフローモデルである textbfAtomic Information Flow (AIF) を提案する。
AIFは、AI説明可能性のための粒度の属性メトリクスを可能にする。
AIF信号のポストトレーニングにより,textbf82.71%(+28.01点)の精度が向上し,textbf87.52%(+1.85%)のコンテキストトークン圧縮が達成された。
- 参考スコア(独自算出の注目度): 5.342695633550927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many tool-based Retrieval Augmented Generation (RAG) systems lack precise mechanisms for tracing final responses back to specific tool components -- a critical gap as systems scale to complex multi-agent architectures. We present \textbf{Atomic Information Flow (AIF)}, a graph-based network flow model that decomposes tool outputs and LLM calls into atoms: indivisible, self-contained units of information. By modeling LLM orchestration as a directed flow of atoms from tool and LLM nodes to a response super-sink, AIF enables granular attribution metrics for AI explainability. Motivated by the max-flow min-cut theorem in network flow theory, we train a lightweight Gemma3 (4B parameter) language model as a context compressor to approximate the minimum cut of tool atoms using flow signals computed offline by AIF. We note that the base Gemma3-4B model struggles to identify critical information with \textbf{54.7\%} accuracy on HotpotQA, barely outperforming lexical baselines (BM25). However, post-training on AIF signals boosts accuracy to \textbf{82.71\%} (+28.01 points) while achieving \textbf{87.52\%} (+1.85\%) context token compression -- bridging the gap with the Gemma3-27B variant, a model nearly $7\times$ larger.
- Abstract(参考訳): 多くのツールベースのRetrieval Augmented Generation(RAG)システムは、特定のツールコンポーネントへの最終応答をトレースする正確なメカニズムを欠いている。
本稿では,ツール出力とLCMコールを分割したグラフベースのネットワークフローモデルである‘textbf{Atomic Information Flow(AIF)’について述べる。
LLMオーケストレーションをツールとLLMノードから応答スーパーシンクへの有向フローとしてモデル化することにより、AI説明可能性のための粒度の属性メトリクスを実現する。
AIFによってオフラインで計算されたフロー信号を用いて、ツール原子の最小カットを近似するために、ネットワークフロー理論における最大フローミンカット定理により、文脈圧縮器として軽量なGemma3(4Bパラメータ)言語モデルを訓練する。
Gemma3-4B ベースモデルは,HotpotQA 上での textbf{54.7\%} の精度で重要な情報を特定するのに苦労しており,語彙ベースライン (BM25) をわずかに上回っている。
しかし、AIF信号のポストトレーニングにより、精度は \textbf{82.71\%} (+28.01 点) に向上し、また \textbf{87.52\%} (+1.85\%) コンテキストトークン圧縮を達成する。
関連論文リスト
- Workflows vs Agents for Code Translation [2.102846336724103]
大規模言語モデル(LLM)は自動化への道を提供するが、HDLコードの限られたトレーニングによって、エンドツーエンドのトランスパイルが不安定になり、構文エラーが発生しやすい。
LLM-to-HDLパイプラインにおける構文修復のための2つの手法の比較を行った。これは、一定の操作列に従う構造化された専門家設計フローと、モデルコンテキストプロトコル(MCP)を用いたより自律的なエージェントアプローチである。
3つのモデルスケールにまたがって、エージェント的アプローチは、初期構文エラーを解決し、パイプラインを通過する候補の数を増やすのに効果的である。
論文 参考訳(メタデータ) (2025-12-15T20:35:11Z) - TinyLLM: Evaluation and Optimization of Small Language Models for Agentic Tasks on Edge Devices [0.0]
本稿では,エージェントタスク(機能/ツール/API呼び出し)における小言語モデル(SLM)の有効性について検討する。
本稿では、教師付き微調整(SFT)、パラメータ効率の高い微調整(PEFT)、強化学習(RL)、ハイブリッド手法を含むパラメータ駆動最適化戦略について述べる。
その結果,中規模モデル(1-3Bパラメータ)がウルトラコンパクトモデル(1Bパラメータ)を大幅に上回るモデルスケール間での精度差が明らかとなった。
この研究は、エッジデバイス上で、小さな言語モデルが正確で効率的で安定したエージェントAIを提供できるようにするためのハイブリッド最適化戦略の重要性を強調した。
論文 参考訳(メタデータ) (2025-11-27T06:09:54Z) - MCP-Orchestrated Multi-Agent System for Automated Disinformation Detection [84.75972919995398]
本稿では,関係抽出を用いてニュース記事の偽情報を検出するマルチエージェントシステムを提案する。
提案したエージェントAIシステムは、(i)機械学習エージェント(ロジスティック回帰)、(ii)Wikipedia知識チェックエージェント、(iv)Webスクラッドデータアナライザの4つのエージェントを組み合わせる。
その結果、マルチエージェントアンサンブルはF1スコア0.964で95.3%の精度を達成し、個々のエージェントや従来のアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-08-13T19:14:48Z) - MGDFIS: Multi-scale Global-detail Feature Integration Strategy for Small Object Detection [12.838872442435527]
UAV画像の小さな物体検出は、探索・救助、交通監視、環境監視といった用途に不可欠である。
既存のマルチスケール融合法は、計算負荷を増し、詳細をぼかすのに役立つ。
本稿では,グローバルコンテキストと局所的な詳細を密結合して検出性能を向上させる統合融合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-15T02:54:25Z) - Fine-tuning a Large Language Model for Automating Computational Fluid Dynamics Simulations [11.902947290205645]
大規模言語モデル(LLM)は高度な科学計算を持ち、CFDでの使用は自動化されている。
ドメイン固有LLM適応に着目した新しいアプローチを提案する。
マルチエージェントフレームワークはプロセスをオーケストレーションし、入力を自律的に検証し、構成を生成し、シミュレーションを実行し、エラーを修正する。
論文 参考訳(メタデータ) (2025-04-13T14:35:30Z) - Beyond Scaling: Measuring and Predicting the Upper Bound of Knowledge Retention in Language Model Pre-Training [68.94373533768501]
我々は、知識保持をモデル化し、そのコーパスから事実情報を記憶するための事前学習言語モデルの能力を示し、学習前にそれを推定する原則的手法を導入する。
本稿では,知識周波数,知識特異度,モデルサイズを統合し,クローズドブック質問応答(QA)の精度を予測する情報理論予測器である,サイズ依存型相互情報(SMI)を提案する。
論文 参考訳(メタデータ) (2025-02-06T13:23:53Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Multi-Source Fusion and Automatic Predictor Selection for Zero-Shot
Video Object Segmentation [86.94578023985677]
ゼロショットビデオオブジェクトセグメンテーションのための新しいマルチソースフュージョンネットワークを提案する。
提案手法は,最先端技術に対する魅力的な性能を実現する。
論文 参考訳(メタデータ) (2021-08-11T07:37:44Z) - Go with the Flows: Mixtures of Normalizing Flows for Point Cloud
Generation and Reconstruction [98.38585659305325]
正規化フロー(NF)は、3Dポイントクラウドのモデリングにおける最先端のパフォーマンスを示している。
この研究は、点雲にNFの混合物を適用することで、それらの表現力を高める。
論文 参考訳(メタデータ) (2021-06-06T14:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。