論文の概要: ST-EVO: Towards Generative Spatio-Temporal Evolution of Multi-Agent Communication Topologies
- arxiv url: http://arxiv.org/abs/2602.14681v1
- Date: Mon, 16 Feb 2026 12:13:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.39343
- Title: ST-EVO: Towards Generative Spatio-Temporal Evolution of Multi-Agent Communication Topologies
- Title(参考訳): ST-EVO:マルチエージェント通信トポロジの時空間進化に向けて
- Authors: Xingjian Wu, Xvyuan Liu, Junkai Lu, Siyuan Wang, Yang Shu, Jilin Hu, Chenjuan Guo, Bin Yang,
- Abstract要約: 本稿では,コンパクトで強力なフローマッチングベーススケジューリングを用いた対話型通信スケジューリングを支援するST-EVOを提案する。
9つのベンチマークの実験では、ST-EVOの最先端性能が実証され、約5%-25%の精度向上が達成された。
- 参考スコア(独自算出の注目度): 30.632775449023608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-powered Multi-Agent Systems (MAS) have emerged as an effective approach towards collaborative intelligence, and have attracted wide research interests. Among them, ``self-evolving'' MAS, treated as a more flexible and powerful technical route, can construct task-adaptive workflows or communication topologies, instead of relying on a predefined static structue template. Current self-evolving MAS mainly focus on Spatial Evolving or Temporal Evolving paradigm, which only considers the single dimension of evolution and does not fully incentivize LLMs' collaborative capability. In this work, we start from a novel Spatio-Temporal perspective by proposing ST-EVO, which supports dialogue-wise communication scheduling with a compact yet powerful flow-matching based Scheduler. To make precise Spatio-Temporal scheduling, ST-EVO can also perceive the uncertainty of MAS, and possesses self-feedback ability to learn from accumulated experience. Extensive experiments on nine benchmarks demonstrate the state-of-the-art performance of ST-EVO, achieving about 5%--25% accuracy improvement.
- Abstract(参考訳): LLMを利用したマルチエージェントシステム(MAS)は、協調的な知性への効果的なアプローチとして登場し、幅広い研究の関心を集めている。
その中で、より柔軟で強力な技術ルートとして扱われる ``self-evolving' の MAS は、事前に定義された静的構造体テンプレートに頼るのではなく、タスク適応型ワークフローや通信トポロジを構築することができる。
現在の自己進化型MASは主に空間進化または時間進化のパラダイムに焦点を合わせており、それは進化の単一の次元のみを考慮し、LLMの協調能力を完全にインセンティブにしない。
本稿では,コンパクトで強力なフローマッチングベーススケジューリングを用いた対話型通信スケジューリングを支援するST-EVOを提案することで,新しい時空間視点から始める。
正確な時空間スケジューリングを実現するため、ST-EVOはMASの不確実性を認識でき、蓄積した経験から学習する自己フィードバック能力を有する。
9つのベンチマークでの大規模な実験は、ST-EVOの最先端性能を示し、約5%-25%の精度向上を実現した。
関連論文リスト
- MCCE: A Framework for Multi-LLM Collaborative Co-Evolution [17.41200156551317]
多目的離散最適化問題は、その広大かつ非構造的な空間のために重大な問題を引き起こす。
大規模言語モデル(LLM)は、強力な先行と推論能力を提供し、専門家の知識が重要となると自然にします。
我々は,凍結したオープンソースLCMと軽量なトレーニングモデルを組み合わせたハイブリッドフレームワークであるMulti-LLM Collaborative Co-evolutionを紹介する。
論文 参考訳(メタデータ) (2025-10-06T10:03:28Z) - LatentEvolve: Self-Evolving Test-Time Scaling in Latent Space [66.71318175695988]
Test-timeScaling (TTS) は、モデルパラメータを変更することなく、推論フェーズにおけるLarge Language Models (LLM) の推論能力を著しく向上することが実証されている。
本稿では,補完学習システム理論に触発された自己進化型潜在TSフレームワークであるLatentEvolveを提案する。
論文 参考訳(メタデータ) (2025-09-29T13:37:39Z) - Enhancing Cross-task Transfer of Large Language Models via Activation Steering [75.41750053623298]
クロスタスク・イン・コンテキスト学習はタスク間で知識を伝達する直接的なソリューションを提供する。
パラメータ更新や入力拡張を伴わずに、潜時空間ステアリングによりクロスタスク転送を実現することができるかを検討する。
本稿では,モデルの内部アクティベーション状態を操作することで,効率的な転送を可能にするクロスタスク・アクティベーション・ステアリング・トランスファー・フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-17T15:47:22Z) - Improving LLM Agent Planning with In-Context Learning via Atomic Fact Augmentation and Lookahead Search [48.348209577994865]
大規模言語モデル(LLM)はますます有能になるが、複雑で対話的な環境で効果的に機能するためには、重要なガイダンスや広範な相互作用履歴を必要とすることが多い。
テキスト内学習による計画能力を高める新しいLLMエージェントフレームワークを提案する。
我々のエージェントは、その相互作用軌跡からタスククリティカルな原子事実'を抽出することを学ぶ。
論文 参考訳(メタデータ) (2025-06-10T18:36:31Z) - CALM: Co-evolution of Algorithms and Language Model for Automatic Heuristic Design [11.639825726501659]
大規模言語モデル(LLM)は、従来のコストのごく一部で自律的にハイパフォーマンスを発見できる。
本稿では,言語指導と数値指導を組み合わせたハイブリッドフレームワークを提案する。
本手法は,様々な最適化タスクにおいて,SOTA(State-of-the-art)ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-18T07:48:47Z) - Improving Retrospective Language Agents via Joint Policy Gradient Optimization [57.35348425288859]
RetroActは、言語エージェントのタスク計画と自己反射進化機能を共同で最適化するフレームワークである。
模倣学習と強化学習を統合した2段階共同最適化プロセスを開発した。
RetroActはタスクのパフォーマンスと意思決定プロセスを大幅に改善しています。
論文 参考訳(メタデータ) (2025-03-03T12:54:54Z) - Cooperative Multi-Agent Planning with Adaptive Skill Synthesis [16.228784877899976]
本稿では、視覚言語モデル(VLM)を動的スキルライブラリと統合し、分散化されたクローズドループ決定のための構造化通信を行う新しいマルチエージェントアーキテクチャを提案する。
デモからブートストラップされたスキルライブラリは、プラナー誘導タスクを通じて進化し、適応戦略を実現する。
我々は、その最先端のMARLベースラインに対して、対称シナリオと非対称シナリオの両方で強力な性能を示す。
論文 参考訳(メタデータ) (2025-02-14T13:23:18Z) - Collaborative Evolving Strategy for Automatic Data-Centric Development [17.962373755266068]
本稿では,自動データ中心開発(AD2)タスクを紹介する。
ドメインエキスパートのようなタスクスケジューリングと実装能力を必要とする、その中核的な課題を概説している。
本稿では,Retrieval による協調的知恵強化進化という戦略を取り入れた自律エージェントを提案する。
論文 参考訳(メタデータ) (2024-07-26T12:16:47Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - SELF: Self-Evolution with Language Feedback [68.6673019284853]
SELF(Self-Evolution with Language Feedback)は、大規模言語モデルを進化させる新しいアプローチである。
LLMは、人間の学習プロセスと同様、自己回帰を通じて自己改善を可能にする。
数学および一般タスクにおける実験により,SELFは人間の介入なしにLLMの能力を高めることができることが示された。
論文 参考訳(メタデータ) (2023-10-01T00:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。