論文の概要: Exploring Information Seeking Agent Consolidation
- arxiv url: http://arxiv.org/abs/2602.00585v1
- Date: Sat, 31 Jan 2026 07:59:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.26991
- Title: Exploring Information Seeking Agent Consolidation
- Title(参考訳): 情報探索エージェントの統合
- Authors: Guochen Yan, Jialong Wu, Zhengwei Tao, Bo Li, Qintong Zhang, Jiahao Xu, Haitao Mi, Yuejian Fang, Qingni Shen, Wentao Zhang, Zhonghai Wu,
- Abstract要約: 既存の情報検索エージェントは一般にオープンウェブ、文書、あるいはローカルな知識ベースに特化している。
本研究では,異種情報探索エージェントを単一の基礎エージェントモデルに統合する方法について検討する。
- 参考スコア(独自算出の注目度): 44.4934948910398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Information-seeking agents have emerged as a powerful paradigm for solving knowledge-intensive tasks. Existing information-seeking agents are typically specialized for open web, documents, or local knowledge bases, which constrains scalability and cross-domain generalization. In this work, we investigate how to consolidate heterogeneous information-seeking agents into a single foundation agentic model. We study two complementary consolidation strategies: data-level consolidation, which jointly trains a unified model on a mixture of domain-specific datasets, and parameter-level consolidation, which merges independently trained agent models at the parameter level. Our analysis compares these approaches in terms of performance retention, cross-domain generalization, and interference across information-seeking behaviors. Our results show that data-level consolidation remains a strong and stable baseline, while parameter-level consolidation offers a promising, efficient alternative but suffers from interference and robustness challenges. We further identify key design factors for effective agent consolidation at the parameter level, including fine-grained merging granularity, awareness of task heterogeneity, and principled consensus strategy.
- Abstract(参考訳): 情報探索エージェントは知識集約的な課題を解決するための強力なパラダイムとして登場した。
既存の情報検索エージェントは、通常、オープンなWeb、ドキュメント、あるいはローカルな知識ベースに特化しており、スケーラビリティとクロスドメインの一般化を制約している。
本研究では,異種情報探索エージェントを単一の基礎エージェントモデルに統合する方法を検討する。
本研究では,データレベル統合(Data-level Consolidation)とパラメータレベル統合(パラメータレベルで独立に訓練されたエージェントモデルをマージするパラメータレベル統合(paramary Consolidation)の2つの相補的統合戦略について検討する。
本分析は,これらの手法を,情報探索行動に対する性能保持,クロスドメインの一般化,干渉の観点から比較する。
以上の結果から,データレベルの統合は依然として強固なベースラインであり,パラメータレベルの統合は有望で効率的な代替手段であるが,干渉や堅牢性に悩まされていることが示唆された。
さらに,パラメータレベルでの効果的なエージェント統合のための重要な設計要因として,粒度の細かいマージ,タスクの不均一性の認識,原則的コンセンサス戦略などを挙げる。
関連論文リスト
- Context Steering: A New Paradigm for Compression-based Embeddings by Synthesizing Relevant Information Features [0.0]
コンテキストステアリング(context steering)は、機能形成プロセスを積極的にガイドする方法論である。
正規化圧縮距離(NCD)と相対圧縮距離(NRC)を用いて,この戦略の有効性を検証する。
テキストから実世界の音声への異種データセット間の実験結果-コンテキストステアリングの堅牢性と汎用性を検証した。
論文 参考訳(メタデータ) (2025-08-20T15:26:52Z) - A Unified Framework for Variable Selection in Model-Based Clustering with Missing Not at Random [6.19101012807196]
本稿では,これらの課題を同時に解決するための統合フレームワークを提案する。
提案手法では,データ駆動型ペナルティ行列をクラスタリングに組み込んで,より柔軟な変数選択を実現する。
一定の規則性の下で、提案するフレームワークは、欠落したデータが存在する場合でも、クラスタリングの一貫性と一貫性の両方を達成することを実証する。
論文 参考訳(メタデータ) (2025-05-25T11:08:43Z) - Scalable Multi-Agent Offline Reinforcement Learning and the Role of Information [37.18643811339418]
データセット収集とオフライン学習の両方にスケーラブルな新しいルーチンを提案する。
エージェントはまず、事前に特定された情報共有ネットワークと一貫性のある多様なデータセットを収集する。
提案手法は,FQIの教師あり学習段階における固有誤差を,共有情報と非共有情報との相互情報に限定することを可能にしている。
論文 参考訳(メタデータ) (2025-02-16T20:28:42Z) - MergeNet: Knowledge Migration across Heterogeneous Models, Tasks, and Modalities [72.05167902805405]
異種モデルのパラメータ空間のギャップを埋めることを学ぶMergeNetを提案する。
MergeNetの中核となるメカニズムはパラメータアダプタにあり、ソースモデルの低ランクパラメータをクエリすることで動作する。
MergeNetは両方のモデルと共に学習され、我々のフレームワークは、現在のステージに関する知識を動的に転送し、適応することができます。
論文 参考訳(メタデータ) (2024-04-20T08:34:39Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Cross-Supervised Joint-Event-Extraction with Heterogeneous Information
Networks [61.950353376870154]
Joint-event- Extractは、トリガとエンティティのタグからなるタグセットを備えたシーケンスからシーケンスまでのラベリングタスクである。
トリガやエンティティの抽出を交互に監督するクロススーパーバイザードメカニズム(CSM)を提案する。
我々の手法は、エンティティとトリガー抽出の両方において最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-13T11:51:17Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。