論文の概要: CooT: Learning to Coordinate In-Context with Coordination Transformers
- arxiv url: http://arxiv.org/abs/2506.23549v2
- Date: Sat, 18 Oct 2025 07:51:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.434965
- Title: CooT: Learning to Coordinate In-Context with Coordination Transformers
- Title(参考訳): CooT: コーディネーショントランスフォーマーでコンテキスト調整を学ぶ
- Authors: Huai-Chih Wang, Hsiang-Chun Chuang, Hsi-Chun Cheng, Dai-Jie Wu, Shao-Hua Sun,
- Abstract要約: コーディネーション・トランスフォーマー(Coordination Transformers, Coot)は、目に見えないパートナーに迅速に適応する、コンテキスト内協調フレームワークである。
cootは、人口ベースアプローチ、勾配ベースの微調整、メタRLにインスパイアされたコンテキスト適応方法など、ベースラインを一貫して上回る。
対照的に、cootは安定かつ迅速なインコンテクスト適応を実現し、人間の評価において最も効果的なコラボレータである。
- 参考スコア(独自算出の注目度): 10.888155149916967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective coordination among artificial agents in dynamic and uncertain environments remains a significant challenge in multi-agent systems. Existing approaches, such as self-play and population-based methods, either generalize poorly to unseen partners or require impractically extensive fine-tuning. To overcome these limitations, we propose Coordination Transformers (\coot), a novel in-context coordination framework that uses recent interaction histories to rapidly adapt to unseen partners. Unlike prior approaches that primarily aim to diversify training partners, \coot explicitly focuses on adapting to new partner behaviors by predicting actions aligned with observed interactions. Trained on trajectories collected from diverse pairs of agents with complementary preferences, \coot quickly learns effective coordination strategies without explicit supervision or parameter updates. Across diverse coordination tasks in Overcooked, \coot consistently outperforms baselines including population-based approaches, gradient-based fine-tuning, and a Meta-RL-inspired contextual adaptation method. Notably, fine-tuning proves unstable and ineffective, while Meta-RL struggles to achieve reliable coordination. By contrast, \coot achieves stable, rapid in-context adaptation and is consistently ranked the most effective collaborator in human evaluations.
- Abstract(参考訳): 動的および不確実な環境における人工エージェント間の効果的な協調は、マルチエージェントシステムにおいて重要な課題である。
自己プレイや人口ベースの手法のような既存のアプローチは、目に見えないパートナーにあまり一般化しないか、あるいは過激に広範囲の微調整を必要とする。
このような制約を克服するために,近年のインタラクション履歴を生かした新しいコンテキスト内コーディネートフレームワークであるCoordination Transformers (\coot)を提案する。
トレーニングパートナの多様化を主な目的とする従来のアプローチとは違って,‘coot’は,観察されたインタラクションに合わせて行動を予測することによって,新たなパートナの行動に適応することを重視している。
補完的な嗜好を持つ多様なエージェントのペアから収集された軌跡に基づいて訓練された \coot は、明確な監督やパラメータの更新なしに、効果的な調整戦略を素早く学習する。
Overcookedにおける多様な調整作業全体において、‘coot’は、人口ベースのアプローチ、勾配に基づく微調整、メタRLにインスパイアされた文脈適応法など、ベースラインを一貫して上回っている。
特に、微調整は不安定で効果がないことを証明し、Meta-RLは信頼性の高い調整を達成するのに苦労する。
対照的に、‘coot’は安定かつ迅速な文脈内適応を実現し、人間の評価において最も効果的な共同作業者である。
関連論文リスト
- Enhancing Multi-Agent Collaboration with Attention-Based Actor-Critic Policies [0.0]
Team-Attention-Actor-Critic (TAAC)は、協調環境におけるマルチエージェントコラボレーションを強化するために設計された学習アルゴリズムである。
シミュレーションサッカー環境におけるTAACをベンチマークアルゴリズムを用いて評価する。
論文 参考訳(メタデータ) (2025-07-30T15:48:38Z) - Cross-environment Cooperation Enables Zero-shot Multi-agent Coordination [37.90912492084769]
本研究では,単一パートナーによる環境分布の強化学習が,一般的な協調学習の学習にどのように役立つかを検討する。
何十億もの解決可能な調整課題を生み出すJaxベースの手続き型ジェネレータを2つ導入する。
本研究は,様々なシナリオにまたがって協調学習を行うことによって,エージェントが一般的な規範を発達させることを示唆している。
論文 参考訳(メタデータ) (2025-04-17T07:41:25Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Adaptive Coordination in Social Embodied Rearrangement [49.35582108902819]
本研究では,エージェントが新しいパートナーと協力し,ロボットが新しいパートナーと協力するシナリオをエミュレートする作業において,ゼロショットコーディネート(ZSC)を研究する。
本稿では,識別可能性の目的を通じて多様性を促進する新しいZSCアプローチである行動多様性プレイ(BDP)を提案する。
以上の結果から,BDPは視覚的コーディネーションに対処可能な適応エージェントを学習し,ゼロショットは未確認環境において新たなパートナーに一般化し,ベースラインに比べて35%,効率が32%向上した。
論文 参考訳(メタデータ) (2023-05-31T18:05:51Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Cooperative guidance of multiple missiles: a hybrid co-evolutionary
approach [0.9176056742068814]
複数のミサイルの協調誘導は、厳密な時間と宇宙の合意の制約を伴う課題である。
本稿では,非定常性と協調指導が直面する継続的制御の問題に対処する,新たな自然共進化戦略(NCES)を開発する。
高度にスケーラブルな共進化的メカニズムと従来の指導戦略を統合することで,ハイブリッド共同進化的協調指導法(HCCGL)を提案する。
論文 参考訳(メタデータ) (2022-08-15T12:59:38Z) - Depthwise Convolution for Multi-Agent Communication with Enhanced
Mean-Field Approximation [9.854975702211165]
本稿では,MARL(Multi-agent RL)課題に取り組むための,局所的なコミュニケーション学習に基づく新しい手法を提案する。
まず,局所的な関係を効率的に抽出する深層的畳み込み機能を利用する新しい通信プロトコルを設計する。
第2に,エージェント相互作用の規模を減らすために,平均場近似を導入する。
論文 参考訳(メタデータ) (2022-03-06T07:42:43Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z) - Distributed Adaptive Learning Under Communication Constraints [54.22472738551687]
本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
論文 参考訳(メタデータ) (2021-12-03T19:23:48Z) - On the Critical Role of Conventions in Adaptive Human-AI Collaboration [73.21967490610142]
規則依存表現と規則依存表現を区別する学習フレームワークを提案する。
複雑性が異なる3つの共同作業に対するアプローチを実験的に検証します。
論文 参考訳(メタデータ) (2021-04-07T02:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。