論文の概要: DFAMS: Dynamic-flow guided Federated Alignment based Multi-prototype Search
- arxiv url: http://arxiv.org/abs/2508.20353v1
- Date: Thu, 28 Aug 2025 02:00:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.892881
- Title: DFAMS: Dynamic-flow guided Federated Alignment based Multi-prototype Search
- Title(参考訳): DFAMS: 動的フローガイド付きフェデレーションアライメントに基づくマルチプロトタイプ検索
- Authors: Zhibang Yang, Xinke Jiang, Rihong Qiu, Ruiqing Li, Yihang Zhang, Yue Fang, Yongxin Xu, Hongxin Ding, Xu Chu, Junfeng Zhao, Yasha Wang,
- Abstract要約: Federated Retrieval (FR) は、複数の外部知識ソースをまたいでクエリをルーティングし、必要な外部知識が分散された場合、LCMの幻覚を軽減する。
DFAMSは、DIFを利用して潜伏クエリの意図を識別し、意味的に整合した知識分割を構築し、不均一なソースを正確に検索する新しいフレームワークである。
DFAMSは、知識分類精度が14.37%、検索リコールが5.38%、下流QAが6.45%向上し、複雑なFRシナリオにおいてその効果が示された。
- 参考スコア(独自算出の注目度): 30.780731199184384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Retrieval (FR) routes queries across multiple external knowledge sources, to mitigate hallucinations of LLMs, when necessary external knowledge is distributed. However, existing methods struggle to retrieve high-quality and relevant documents for ambiguous queries, especially in cross-domain scenarios, which significantly limits their effectiveness in supporting downstream generation tasks. Inspired by dynamic information flow (DIF), we propose DFAMS, a novel framework that leverages DIF to identify latent query intents and construct semantically aligned knowledge partitions for accurate retrieval across heterogeneous sources. Specifically, DFAMS probes the DIF in LLMs by leveraging gradient signals from a few annotated queries and employing Shapley value-based attribution to trace neuron activation paths associated with intent recognition and subdomain boundary detection. Then, DFAMS leverages DIF to train an alignment module via multi-prototype contrastive learning, enabling fine-grained intra-source modeling and inter-source semantic alignment across knowledge bases. Experimental results across five benchmarks show that DFAMS outperforms advanced FR methods by up to 14.37% in knowledge classification accuracy, 5.38% in retrieval recall, and 6.45% in downstream QA accuracy, demonstrating its effectiveness in complex FR scenarios.
- Abstract(参考訳): Federated Retrieval (FR) は、複数の外部知識ソースをまたいでクエリをルーティングし、必要な外部知識が分散された場合、LCMの幻覚を軽減する。
しかし、既存の手法では、特にクロスドメインシナリオにおいて、不明瞭なクエリに対する高品質で関連性の高いドキュメントの検索に苦慮している。
動的情報フロー(DIF)にインスパイアされたDFAMSを提案する。DFAMSは、DIFを利用して潜伏クエリの意図を識別し、意味的に整合した知識分割を構築し、異種ソース間の正確な検索を行う。
具体的には、DFAMSは、いくつかの注釈付きクエリからの勾配信号を活用し、Shapley値に基づく属性を用いて、意図認識とサブドメイン境界検出に関連するニューロン活性化経路を追跡することによって、LLM内のDIFを探索する。
次に、DFAMSはDIFを利用してマルチプロトタイプのコントラスト学習を通じてアライメントモジュールをトレーニングし、きめ細かいソース内モデリングと知識ベース間のソース間セマンティックアライメントを可能にする。
5つのベンチマークでの実験結果から、DFAMSは知識分類精度が14.37%、検索リコールが5.38%、下流QAが6.45%向上し、複雑なFRシナリオでの有効性を示した。
関連論文リスト
- DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - Uncovering Bias Paths with LLM-guided Causal Discovery: An Active Learning and Dynamic Scoring Approach [1.5498930424110338]
大規模言語モデル(LLM)は、統計的因果発見(CD)アプローチを有望に補完する。
機械学習における公平性を保証するには、センシティブな属性が結果に因果的にどのように影響するかを理解する必要がある。
本稿では,BFS(Broadth-first Search)戦略を拡張し,アクティブラーニングと動的スコアリングを併用したCD用LLMベースのハイブリッドフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T21:04:03Z) - Divide-Then-Align: Honest Alignment based on the Knowledge Boundary of RAG [51.120170062795566]
本稿では,問合せが知識境界外にある場合の"I don't know"で応答する機能を備えたRAGシステムを実現するためのDTAを提案する。
DTAは適切な棄権と精度のバランスをとり、検索強化システムの信頼性と信頼性を高める。
論文 参考訳(メタデータ) (2025-05-27T08:21:21Z) - Unlocking the Capabilities of Large Vision-Language Models for Generalizable and Explainable Deepfake Detection [18.125287697902813]
現在のLVLM(Large Vision-Language Models)は、マルチモーダルデータの理解において顕著な能力を示している。
深度検出のためのLVLMの潜在能力を解き放つ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T03:20:03Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - FKA-Owl: Advancing Multimodal Fake News Detection through Knowledge-Augmented LVLMs [48.32113486904612]
本稿では,FKA-Owlを提案する。FKA-Owlは,偽情報を利用した大規模視覚言語モデル(LVLM)の拡張のためのフレームワークである。
パブリックベンチマークの実験では、FKA-Owlは従来の手法よりも優れたクロスドメイン性能を達成している。
論文 参考訳(メタデータ) (2024-03-04T12:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。