論文の概要: Synapse Compendium Aware Federated Knowledge Exchange for Tool Routed LLMs
- arxiv url: http://arxiv.org/abs/2602.00911v1
- Date: Sat, 31 Jan 2026 21:43:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.461914
- Title: Synapse Compendium Aware Federated Knowledge Exchange for Tool Routed LLMs
- Title(参考訳): ツール経路LLMの知識交換を考慮したシナプスコンセント
- Authors: Abhijit Chakraborty, Sandipan De, Yash Shah, Chahana Dahal, Vivek Gupta,
- Abstract要約: LLMをベースとしたエージェント間の協調学習は課題に直面している。
ツール使用行動のグローバルな知識モデルを共有するフレームワークであるSynapseを紹介する。
その結果、Synapseはツール使用効率を改善し、ウェイトやプロンプトシェアリングアプローチと比較して通信オーバーヘッドを低減することがわかった。
- 参考スコア(独自算出の注目度): 9.638576481611015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative learning among LLM-based agents under federated learning faces challenges, including communication costs, heterogeneity in data, and tool-usage, limiting their effectiveness. We introduce Synapse, a framework that trains a shared global knowledge model of tool-usage behavior. Client agents with fixed LLMs learn tool-usage patterns locally, and transmit artifacts for federated aggregation through coordinators. A global tool compendium is updated and redistributed, enabling convergence toward stable tool selection. Synapse uses templated representations, embedding retrieval with LLM reranking, and adaptive masking to maintain utility while limiting information leakage. The framework supports heterogeneous data and quantifies performance improvements. Results show that Synapse improves tool-usage effectiveness and reduces communication overhead compared with weight or prompt-sharing approaches in multi-agent LLM systems.
- Abstract(参考訳): LLMベースのエージェント間の協調学習は、コミュニケーションコスト、データの不均一性、ツール利用といった課題に直面し、その効果を制限している。
ツール使用行動のグローバルな知識モデルを共有するフレームワークであるSynapseを紹介する。
固定LDMを持つクライアントエージェントは、ツール使用パターンをローカルに学習し、コーディネータを介して連合集約のためのアーティファクトを送信する。
グローバルツールコンペンジウムが更新され、再配布され、安定したツール選択への収束を可能にする。
Synapseはテンプレート表現、LLMリグレードによる埋め込み検索、アダプティブマスキングを使用して情報漏洩を抑えながら実用性を維持する。
このフレームワークは異種データをサポートし、パフォーマンスの改善を定量化する。
その結果、Synapse は多エージェント LLM システムにおいて、重み付けやプロンプト共有方式と比較して、ツール使用効率を向上し、通信オーバヘッドを低減することがわかった。
関連論文リスト
- ELSA: Efficient LLM-Centric Split Aggregation for Privacy-Aware Hierarchical Federated Learning over Resource-Constrained Edge Networks [22.53431546014934]
ネットワークエッジでの大規模言語モデル(LLM)のトレーニングは、デバイスリソースの制約、厳密なデータの不均一性、プライバシーリスクの増大など、基本的な課題に直面している。
リソース制約付きエッジネットワーク上での分散LLM微調整のための分割学習(SL)と階層的フェデレーション学習(HFL)を統合する新しいフレームワークであるELSAを提案する。
まず、公的なプローブ入力と対称KL発散を用いたセマンティックフィンガープリントを構築するタスク非依存の振る舞い対応クライアントクラスタリング機構を用いる。
次に、LLMをクライアントとエッジサーバの3つの部分に分割し、クラウドはアダプタアグリゲーションにのみ使用される。
第三に
論文 参考訳(メタデータ) (2026-01-20T10:33:19Z) - A Structure-Agnostic Co-Tuning Framework for LLMs and SLMs in Cloud-Edge Systems [20.267719677908683]
Co-PLMsは、大規模および小規模言語モデルの協調トレーニングのための新しいフレームワークである。
構造に依存しない相互学習のプロセスを統合し、異種言語モデル間の知識交換を実現する。
その結果、Co-PLMsは最先端の手法より優れており、Roge-Lでは平均5.38%、EMでは4.88%の上昇を達成している。
論文 参考訳(メタデータ) (2025-11-12T01:16:17Z) - PEFA-AI: Advancing Open-source LLMs for RTL generation using Progressive Error Feedback Agentic-AI [5.455262834289454]
本稿では,人的介入を伴わずにレジスタ転送レベル(RTL)生成のタスクを協調的に完了する複数のエージェントからなるエージェントフローを提案する。
提案するフローの重要な特徴は,自己修正機構であるエージェントのプログレッシブエラーフィードバックシステム(PEFA)である。
コード生成に対するこの適応的アプローチを検証するために、ベンチマークは2つのオープンソース自然言語-RTLデータセットを使用して実行される。
論文 参考訳(メタデータ) (2025-11-06T00:19:47Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Federated In-Context LLM Agent Learning [3.4757641432843487]
大規模言語モデル(LLM)は、論理的推論、ツールの使用、エージェントとしての外部システムとの相互作用を可能にすることによって、インテリジェントなサービスに革命をもたらした。
本稿では,プライバシ保護型フェデレーション・イン・コンテクスト LLM Agent Learning (FICAL) アルゴリズムを提案する。
その結果、FICALは、他のSOTAベースラインと比較して競争性能が優れており、通信コストの大幅な削減は、$mathbf3.33times105$倍であることがわかった。
論文 参考訳(メタデータ) (2024-12-11T03:00:24Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。