論文の概要: Emergent Cooperation in Quantum Multi-Agent Reinforcement Learning Using Communication
- arxiv url: http://arxiv.org/abs/2601.18419v1
- Date: Mon, 26 Jan 2026 12:21:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.818542
- Title: Emergent Cooperation in Quantum Multi-Agent Reinforcement Learning Using Communication
- Title(参考訳): コミュニケーションを用いた量子マルチエージェント強化学習における創発的協調
- Authors: Michael Kölle, Christian Reff, Leo Sünkel, Julian Hager, Gerhard Stenzel, Claudia Linnhoff-Popien,
- Abstract要約: 量子マルチエージェント強化学習において,コミュニケーションは創発的協力を促進するための有効なメカニズムである。
量子Q-Learningエージェントに通信アプローチを適用する。
我々はこれらのアプローチを3つのジレンマで評価する: 反復囚人ジレンマ、反復スタッグハント、反復チキンゲーム。
- 参考スコア(独自算出の注目度): 2.5773045234536456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emergent cooperation in classical Multi-Agent Reinforcement Learning has gained significant attention, particularly in the context of Sequential Social Dilemmas (SSDs). While classical reinforcement learning approaches have demonstrated capability for emergent cooperation, research on extending these methods to Quantum Multi-Agent Reinforcement Learning remains limited, particularly through communication. In this paper, we apply communication approaches to quantum Q-Learning agents: the Mutual Acknowledgment Token Exchange (MATE) protocol, its extension Mutually Endorsed Distributed Incentive Acknowledgment Token Exchange (MEDIATE), the peer rewarding mechanism Gifting, and Reinforced Inter-Agent Learning (RIAL). We evaluate these approaches in three SSDs: the Iterated Prisoner's Dilemma, Iterated Stag Hunt, and Iterated Game of Chicken. Our experimental results show that approaches using MATE with temporal-difference measure (MATE\textsubscript{TD}), AutoMATE, MEDIATE-I, and MEDIATE-S achieved high cooperation levels across all dilemmas, demonstrating that communication is a viable mechanism for fostering emergent cooperation in Quantum Multi-Agent Reinforcement Learning.
- Abstract(参考訳): 古典的マルチエージェント強化学習における創発的協力は特に逐次社会的ジレンマ(SSD)の文脈において大きな注目を集めている。
古典的な強化学習アプローチは創発的協力の能力を示しているが、これらの手法を量子マルチエージェント強化学習に拡張する研究は、特にコミュニケーションを通じて限られている。
本稿では、量子Q学習エージェント(MATE)プロトコル、Multual Endorsed Distributed Incentive Acnowledment Token Exchange(MEDIATE)拡張、ピア報酬機構ギフト、Reinforced Inter-Agent Learning(RIAL)といった通信手法を適用する。
これらの手法を3つのSSD, Iterated Prisoner's Dilemma, Iterated Stag Hunt, Iterated Game of Chickenで評価した。
実験の結果,MATEと時間差測度(MATE\textsubscript{TD}),AutoMATE,MEDIATE-I,MEDIATE-Sを併用した手法が全ジレンマにおいて高い協調レベルを達成し,コミュニケーションが量子マルチエージェント強化学習における創発的協力を促進するための有効なメカニズムであることを実証した。
関連論文リスト
- CoMAS: Co-Evolving Multi-Agent Systems via Interaction Rewards [80.78748457530718]
自己進化(Self-evolution)は、大規模言語モデル(LLM)ベースのエージェントが事前トレーニング後の能力を継続的に改善できるようにする上で、中心的な研究トピックである。
エージェントがエージェント間相互作用から学習することで自律的に改善できる新しいフレームワークであるCo-Evolving Multi-Agent Systems (CoMAS)を紹介する。
論文 参考訳(メタデータ) (2025-10-09T17:50:26Z) - MAGIC-MASK: Multi-Agent Guided Inter-Agent Collaboration with Mask-Based Explainability for Reinforcement Learning [0.0]
本稿では,マルチエージェント強化学習への摂動に基づく説明を拡張した数学的基盤を持つMAGIC-MASKを提案する。
提案手法は, 近似ポリシ最適化, 適応型エプシロン・グレーディ探索, および軽量なエージェント間協調を統合した。
この共同作業により、各エージェントは給与誘導マスキングを行い、報酬に基づく洞察を仲間と共有し、臨界状態発見に必要な時間を短縮することができる。
論文 参考訳(メタデータ) (2025-09-30T20:53:28Z) - Adaptive Event-Triggered Policy Gradient for Multi-Agent Reinforcement Learning [1.3483705601540006]
ET-MAPGはエージェントのコントロールポリシーとイベントトリガポリシーを共同で学習するフレームワークである。
AET-MAPGはエージェントに対して、アクションをいつ起動するかだけでなく、誰と通信し、どの情報を交換するかを決定する権限を与える。
論文 参考訳(メタデータ) (2025-09-24T17:29:56Z) - MACTAS: Self-Attention-Based Module for Inter-Agent Communication in Multi-Agent Reinforcement Learning [0.0]
本稿では,MARL内のエージェント間で情報交換を行う自己注意型通信モジュールを提案する。
提案手法は完全に差別化可能であり、エージェントは報酬駆動方式でメッセージを生成することができる。
SMACとSMACv2ベンチマークの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2025-08-19T09:08:48Z) - Situation-Dependent Causal Influence-Based Cooperative Multi-agent
Reinforcement Learning [18.054709749075194]
我々は、状況依存因果関係に基づく協調マルチエージェント強化学習(SCIC)という新しいMARLアルゴリズムを提案する。
本研究の目的は,特定の状況におけるエージェント間因果関係の影響を,因果介入と条件付き相互情報を用いて検出することである。
結果として得られたアップデートは、協調した探索と本質的な報酬分布をリンクし、全体的なコラボレーションとパフォーマンスを高めた。
論文 参考訳(メタデータ) (2023-12-15T05:09:32Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Celebrating Diversity in Shared Multi-Agent Reinforcement Learning [20.901606233349177]
深層多エージェント強化学習は、複雑な協調的な課題を解決することを約束している。
本稿では,共有型マルチエージェント強化学習の最適化と表現に多様性を導入することを目的とする。
提案手法は,Google Research Footballと超硬度StarCraft IIマイクロマネジメントタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-06-04T00:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。