論文の概要: CooT: Learning to Coordinate In-Context with Coordination Transformers
- arxiv url: http://arxiv.org/abs/2506.23549v1
- Date: Mon, 30 Jun 2025 06:45:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.942436
- Title: CooT: Learning to Coordinate In-Context with Coordination Transformers
- Title(参考訳): CooT: コーディネーショントランスフォーマーでコンテキスト調整を学ぶ
- Authors: Huai-Chih Wang, Hsiang-Chun Chuang, Hsi-Chun Cheng, Dai-Jie Wu, Shao-Hua Sun,
- Abstract要約: CooT(Coordination Transformers)は、最近のインタラクション履歴を利用して、目に見えないパートナーに迅速に適応する、新しいコンテキスト内コーディネートフレームワークである。
多様なエージェントから収集された相互作用軌跡に基づいて訓練されたCooTは、明確な監督や微調整なしに、効果的な協調戦略を素早く学習する。
人間の評価では、CooTが最も効果的なコラボレーティブパートナであることが確認されているが、広範な改善は、マルチエージェントシナリオにおけるコンテキストに対する堅牢性、柔軟性、感度を強調している。
- 参考スコア(独自算出の注目度): 4.205946699819021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective coordination among artificial agents in dynamic and uncertain environments remains a significant challenge in multi-agent systems. Existing approaches, such as self-play and population-based methods, either generalize poorly to unseen partners or require extensive training. To overcome these limitations, we propose Coordination Transformers (CooT), a novel in-context coordination framework that uses recent interaction histories to adapt to unseen partners rapidly. Unlike previous approaches that primarily aim to increase the diversity of training partners, CooT explicitly focuses on adapting to new partner behaviors by predicting actions aligned with observed partner interactions. Trained on interaction trajectories collected from diverse pairs of agents with complementary behaviors, CooT quickly learns effective coordination strategies without explicit supervision or fine-tuning. Evaluations on the Overcooked benchmark demonstrate that CooT significantly outperforms baseline methods in coordination tasks involving previously unseen partners. Human evaluations further confirm CooT as the most effective collaborative partner, while extensive ablations highlight its robustness, flexibility, and sensitivity to context in multi-agent scenarios.
- Abstract(参考訳): 動的および不確実な環境における人工エージェント間の効果的な協調は、マルチエージェントシステムにおいて重要な課題である。
自己プレイや人口ベースの手法のような既存のアプローチは、目に見えないパートナーにあまり一般化しないか、広範囲の訓練を必要とする。
このような制約を克服するために,近年のインタラクション履歴を用いて,未知のパートナーに迅速に適応する,コンテキスト内協調フレームワークCooT(Coordination Transformers)を提案する。
トレーニングパートナの多様性向上を主な目的とする従来のアプローチとは異なり,CooTでは,観察されたパートナのインタラクションに合わせて行動を予測することによって,新たなパートナの行動に適応することを重視している。
CooTは、補完行動を持つ多様なエージェントのペアから収集された相互作用の軌跡に基づいて、明確な監督や微調整なしに、効果的な協調戦略を素早く学習する。
Overcookedベンチマークの評価によると、CooTは、これまで見つからなかったパートナーを含む調整タスクにおいて、ベースラインメソッドを著しく上回っている。
人間の評価はさらに、CooTを最も効果的な協力パートナーとして確認する一方で、多エージェントシナリオにおけるその堅牢性、柔軟性、コンテキストに対する感受性を強調している。
関連論文リスト
- Nested Training for Mutual Adaptation in Human-AI Teaming [30.247046563601202]
既存のアプローチは、トレーニングパートナの多様性を改善して人間の振る舞いを近似することを目的としているが、これらのパートナは静的であり、人間の適応的な振る舞いを捉えることができない。
我々は,人間ロボットのチーム化シナリオを対話的部分観測可能なマルコフ決定プロセス (I-POMDP) としてモデル化し,その状態の一部としての人間の適応を明示的にモデル化する。
提案手法を,人間ロボットの協調作業用に設計された複数のベースラインエージェントと比較し,オーバークッキング領域における協調設定を必要とするマルチフェーズで学習する。
論文 参考訳(メタデータ) (2026-02-18T23:07:48Z) - Adaptively Coordinating with Novel Partners via Learned Latent Strategies [19.014669675808133]
我々は、リアルタイムに幅広いパートナー戦略を表現、分類、適応する戦略条件付き協調作業フレームワークを導入する。
提案手法は,エージェント軌道データから潜在戦略空間を学習するために,変分オートエンコーダを用いて戦略を符号化する。
我々は,インタラクション中のパートナーの戦略推定を動的に推論し,調整する固定共有後悔最小化アルゴリズムを活用する。
論文 参考訳(メタデータ) (2025-11-16T19:45:35Z) - Deep Reinforcement Learning for Multi-Agent Coordination [8.250169938213558]
本稿では,仮想フェロモンを用いて局所的・社会的相互作用をモデル化するS-MADRL(Stigmergic Multi-Agent Deep Reinforcement Learning)フレームワークを提案する。
我々は,ロボットが非対称な作業負荷分布に自己組織化される,最大8つのエージェントの最も効果的な協調を実現していることを示す。
この創発的行動は、自然界で観察される戦略に類似しており、混雑した環境下での分散マルチエージェント協調のためのスケーラブルなソリューションを示している。
論文 参考訳(メタデータ) (2025-10-04T00:47:20Z) - Decentralized Dynamic Cooperation of Personalized Models for Federated Continual Learning [50.56947843548702]
フェデレーション型連続学習のための分散動的協調フレームワークを提案する。
顧客は、新しい知識の獲得と事前学習の維持のバランスをとるために、動的な協調学習連合を確立する。
また、協調的・動的平衡を達成するために、マージブロックアルゴリズムと動的協調的進化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-28T06:53:23Z) - Enhancing Multi-Agent Collaboration with Attention-Based Actor-Critic Policies [0.0]
Team-Attention-Actor-Critic (TAAC)は、協調環境におけるマルチエージェントコラボレーションを強化するために設計された学習アルゴリズムである。
シミュレーションサッカー環境におけるTAACをベンチマークアルゴリズムを用いて評価する。
論文 参考訳(メタデータ) (2025-07-30T15:48:38Z) - Cross-environment Cooperation Enables Zero-shot Multi-agent Coordination [37.90912492084769]
本研究では,単一パートナーによる環境分布の強化学習が,一般的な協調学習の学習にどのように役立つかを検討する。
何十億もの解決可能な調整課題を生み出すJaxベースの手続き型ジェネレータを2つ導入する。
本研究は,様々なシナリオにまたがって協調学習を行うことによって,エージェントが一般的な規範を発達させることを示唆している。
論文 参考訳(メタデータ) (2025-04-17T07:41:25Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Adaptive Coordination in Social Embodied Rearrangement [49.35582108902819]
本研究では,エージェントが新しいパートナーと協力し,ロボットが新しいパートナーと協力するシナリオをエミュレートする作業において,ゼロショットコーディネート(ZSC)を研究する。
本稿では,識別可能性の目的を通じて多様性を促進する新しいZSCアプローチである行動多様性プレイ(BDP)を提案する。
以上の結果から,BDPは視覚的コーディネーションに対処可能な適応エージェントを学習し,ゼロショットは未確認環境において新たなパートナーに一般化し,ベースラインに比べて35%,効率が32%向上した。
論文 参考訳(メタデータ) (2023-05-31T18:05:51Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Rethinking Trajectory Prediction via "Team Game" [118.59480535826094]
本稿では,対話型グループコンセンサスの概念を明示的に導入した,マルチエージェント軌道予測の新しい定式化について述べる。
チームスポーツと歩行者の2つのマルチエージェント設定において,提案手法は既存手法と比較して常に優れた性能を達成している。
論文 参考訳(メタデータ) (2022-10-17T07:16:44Z) - Stateful active facilitator: Coordination and Environmental
Heterogeneity in Cooperative Multi-Agent Reinforcement Learning [71.53769213321202]
環境の調整レベルと不均一度の概念を定式化する。
異なるMARLアプローチの実証評価を容易にするマルチエージェント環境のスイートであるHECOGridを提案する。
本研究では,エージェントが高配向環境と高配向環境において効率的に作業することを可能にする訓練分散実行学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-04T18:17:01Z) - Cooperative guidance of multiple missiles: a hybrid co-evolutionary
approach [0.9176056742068814]
複数のミサイルの協調誘導は、厳密な時間と宇宙の合意の制約を伴う課題である。
本稿では,非定常性と協調指導が直面する継続的制御の問題に対処する,新たな自然共進化戦略(NCES)を開発する。
高度にスケーラブルな共進化的メカニズムと従来の指導戦略を統合することで,ハイブリッド共同進化的協調指導法(HCCGL)を提案する。
論文 参考訳(メタデータ) (2022-08-15T12:59:38Z) - Depthwise Convolution for Multi-Agent Communication with Enhanced
Mean-Field Approximation [9.854975702211165]
本稿では,MARL(Multi-agent RL)課題に取り組むための,局所的なコミュニケーション学習に基づく新しい手法を提案する。
まず,局所的な関係を効率的に抽出する深層的畳み込み機能を利用する新しい通信プロトコルを設計する。
第2に,エージェント相互作用の規模を減らすために,平均場近似を導入する。
論文 参考訳(メタデータ) (2022-03-06T07:42:43Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z) - Distributed Adaptive Learning Under Communication Constraints [54.22472738551687]
本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
論文 参考訳(メタデータ) (2021-12-03T19:23:48Z) - DSDF: An approach to handle stochastic agents in collaborative
multi-agent reinforcement learning [0.0]
ロボットの機能低下や老化によって引き起こされるエージェントの真偽が、協調の不確実性にどのように寄与するかを示す。
DSDFは不確実性に応じてエージェントの割引係数を調整し,その値を用いて個々のエージェントのユーティリティネットワークを更新する。
論文 参考訳(メタデータ) (2021-09-14T12:02:28Z) - On the Critical Role of Conventions in Adaptive Human-AI Collaboration [73.21967490610142]
規則依存表現と規則依存表現を区別する学習フレームワークを提案する。
複雑性が異なる3つの共同作業に対するアプローチを実験的に検証します。
論文 参考訳(メタデータ) (2021-04-07T02:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。