論文の概要: CoWork-X: Experience-Optimized Co-Evolution for Multi-Agent Collaboration System
- arxiv url: http://arxiv.org/abs/2602.05004v1
- Date: Wed, 04 Feb 2026 19:42:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.594907
- Title: CoWork-X: Experience-Optimized Co-Evolution for Multi-Agent Collaboration System
- Title(参考訳): CoWork-X:マルチエージェント協調システムのための経験最適化共進化
- Authors: Zexin Lin, Jiachen Yu, Haoyang Zhang, Yuzhao Li, Zhonghang Li, Yujiu Yang, Junjie Wang, Xiaoqiang Ji,
- Abstract要約: CoWork-Xはエピソード間のクローズドループ最適化問題としてピアコラボレーションを論じている。
CoWork-Xは安定した累積的なパフォーマンス向上を実現し、オンラインレイテンシとトークン使用率を着実に削減する。
- 参考スコア(独自算出の注目度): 43.33554364574611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models are enabling language-conditioned agents in interactive environments, but highly cooperative tasks often impose two simultaneous constraints: sub-second real-time coordination and sustained multi-episode adaptation under a strict online token budget. Existing approaches either rely on frequent in-episode reasoning that induces latency and timing jitter, or deliver post-episode improvements through unstructured text that is difficult to compile into reliable low-cost execution. We propose CoWork-X, an active co-evolution framework that casts peer collaboration as a closed-loop optimization problem across episodes, inspired by fast--slow memory separation. CoWork-X instantiates a Skill-Agent that executes via HTN (hierarchical task network)-based skill retrieval from a structured, interpretable, and compositional skill library, and a post-episode Co-Optimizer that performs patch-style skill consolidation with explicit budget constraints and drift regularization. Experiments in challenging Overcooked-AI-like realtime collaboration benchmarks demonstrate that CoWork-X achieves stable, cumulative performance gains while steadily reducing online latency and token usage.
- Abstract(参考訳): 大規模言語モデルは対話型環境において言語条件付きエージェントを可能にするが、高度に協調的なタスクは、しばしば2つの同時的制約を課す: サブ秒のリアルタイム調整と、厳格なオンライントークン予算の下での持続的なマルチフェーズ適応である。
既存のアプローチは、遅延とタイミングジッタを誘発する頻繁に発生するエピソード内推論に依存するか、あるいは、信頼性の高い低コストの実行にコンパイルが難しい非構造化テキストを通じて、エピソード後の改善を提供するかのいずれかである。
高速なメモリ分離にインスパイアされた,複数エピソード間のクローズドループ最適化問題としてピアコラボレーションを論じる,アクティブな共進化フレームワークであるCoWork-Xを提案する。
CoWork-Xは、構造化され、解釈可能で、構成されたスキルライブラリからHTN(階層的なタスクネットワーク)ベースのスキル検索を実行するスキルエージェントと、明確な予算制約とドリフト正規化を備えたパッチスタイルのスキル統合を実行する事後コオプティマイザをインスタンス化する。
Overcooked-AIライクなリアルタイムコラボレーションベンチマークに挑戦する実験は、CoWork-Xが安定的で累積的なパフォーマンス向上を実現し、オンラインレイテンシとトークン使用率を着実に削減していることを示している。
関連論文リスト
- CoDA: A Context-Decoupled Hierarchical Agent with Reinforcement Learning [12.710191300398924]
我々は,低レベルの実行から高レベルの計画を切り離す強化学習フレームワークであるCoDAを紹介する。
CoDAは、複雑なマルチホップ質問応答ベンチマークにおける最先端のベースラインよりも、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-12-14T14:41:29Z) - The Era of Agentic Organization: Learning to Organize with Language Models [107.41382234213893]
我々は,非同期思考(AsyncThink)を大規模言語モデルを用いた推論の新しいパラダイムとして紹介する。
実験では、AsyncThinkは並列思考に比べて28%低い推論遅延を実現している。
AsyncThinkは学習した非同期思考機能を一般化し、未確認タスクを追加のトレーニングなしで効果的に処理する。
論文 参考訳(メタデータ) (2025-10-30T16:25:10Z) - ParaCook: On Time-Efficient Planning for Multi-Agent Systems [62.471032881396496]
大規模言語モデル(LLM)は、長期の現実世界のタスクを計画するための強力な推論能力を示す。
時間効率の協調計画のためのベンチマークであるParaCookを紹介する。
論文 参考訳(メタデータ) (2025-10-13T16:47:07Z) - HAWK: A Hierarchical Workflow Framework for Multi-Agent Collaboration [3.2588674134593942]
マルチエージェントシステムは、クロスプラットフォームの相互運用性、動的タスクスケジューリング、効率的なリソース共有において永続的な課題に直面している。
階層型エージェント (Hawk) は, ユーザ, オペレータ, エージェント, リソースの5つのレイヤから構成され, 16の標準化インターフェースでサポートされているモジュール型フレームワークである。
Hawkはタスク解析、ワークフローオーケストレーション、インテリジェントスケジューリング、リソース呼び出し、データ同期をカバーしたエンドツーエンドパイプラインを提供する。
論文 参考訳(メタデータ) (2025-07-05T15:03:53Z) - Multi-Agent Collaboration via Evolving Orchestration [55.574417128944226]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMに基づくマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し,タスク状態の進化に応じて,中央集権的なオーケストレータ("puppeteer")がエージェント("puppets")を動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - Collaborative Speculative Inference for Efficient LLM Inference Serving [22.3288901160418]
CoSineは並列検証から逐次投機復号を分離する新しい投機推論システムである。
同等のリソースコストで、CoSineは23.2%のレイテンシ削減と32.5%のスループット向上を実現している。
論文 参考訳(メタデータ) (2025-03-13T13:03:38Z) - Haste Makes Waste: Evaluating Planning Abilities of LLMs for Efficient and Feasible Multitasking with Time Constraints Between Actions [56.88110850242265]
本稿では,現実の調理シナリオに基づいた新しいベンチマークフレームワークRecipe2Planを紹介する。
従来のベンチマークとは異なり、Recipe2Planは並列タスク実行による調理時間を最適化するためにエージェントに挑戦する。
論文 参考訳(メタデータ) (2025-03-04T03:27:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。