論文の概要: Birds of a Feather Flock Together: A Close Look at Cooperation Emergence
via Multi-Agent RL
- arxiv url: http://arxiv.org/abs/2104.11455v1
- Date: Fri, 23 Apr 2021 08:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 12:52:39.011891
- Title: Birds of a Feather Flock Together: A Close Look at Cooperation Emergence
via Multi-Agent RL
- Title(参考訳): 羽の鳥が群がる:マルチエージェントrlによる協力の出現をよく見る
- Authors: Heng Dong, Tonghan Wang, Jiayuan Liu, Chongjie Zhang
- Abstract要約: インセンティブ機構に起因する二階社会ジレンマのダイナミクスについて検討する。
ホモフィリーと呼ばれる人間の典型的な傾向は、この問題を解くことができる。
インセンティブ相同性を促進するための新しい学習枠組みを提案する。
- 参考スコア(独自算出の注目度): 20.22747008079794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How cooperation emerges is a long-standing and interdisciplinary problem.
Game-theoretical studies on social dilemmas reveal that altruistic incentives
are critical to the emergence of cooperation but their analyses are limited to
stateless games. For more realistic scenarios, multi-agent reinforcement
learning has been used to study sequential social dilemmas (SSDs). Recent works
show that learning to incentivize other agents can promote cooperation in SSDs.
However, with these incentivizing mechanisms, the team cooperation level does
not converge and regularly oscillates between cooperation and defection during
learning. We show that a second-order social dilemma resulting from these
incentive mechanisms is the main reason for such fragile cooperation. We
analyze the dynamics of this second-order social dilemma and find that a
typical tendency of humans, called homophily, can solve the problem. We propose
a novel learning framework to encourage incentive homophily and show that it
achieves stable cooperation in both public goods dilemma and tragedy of the
commons dilemma.
- Abstract(参考訳): 協力の出現は長年にわたる学際的な問題である。
社会ジレンマに関するゲーム理論的研究は、利他的なインセンティブが協力の出現に不可欠であるが、その分析はステートレスゲームに限られていることを示している。
より現実的なシナリオでは、連続的な社会的ジレンマ(SSD)の研究にマルチエージェント強化学習が用いられている。
最近の研究は、他のエージェントにインセンティブを与える学習がssdでの協調を促進することを示している。
しかしながら、これらのインセンティブ化メカニズムによって、チーム協力レベルは収束せず、学習中の協力と欠陥の間に定期的に振動する。
これらのインセンティブ機構から生じる二階の社会的ジレンマが,このような脆弱な協力の主な原因であることを示す。
この二階の社会的ジレンマのダイナミクスを分析し、ホモフィリーと呼ばれる人間の典型的な傾向がこの問題を解決できることを見出す。
そこで本研究では,公共財のジレンマと庶民ジレンマの悲劇の両方において,安定した協調を実現するための新しい学習枠組みを提案する。
関連論文リスト
- Learning Roles with Emergent Social Value Orientations [49.16026283952117]
本稿では、人間社会における典型的な「労働・役割の分断」のメカニズムを紹介する。
我々は、社会的価値指向(SVO)を伴う時空間的社会的ジレンマ(ISD)に対する有望な解決策を提供する。
創発的SVOによる学習ロール(RESVO)と呼ばれる新しい学習フレームワークは、役割の学習を社会的価値指向の出現に変換するために提案されている。
論文 参考訳(メタデータ) (2023-01-31T17:54:09Z) - Investigating the Impact of Direct Punishment on the Emergence of
Cooperation in Multi-Agent Reinforcement Learning Systems [2.5426469613007012]
本稿では,多エージェント強化学習システムにおける直接罰に関連する行動と学習のダイナミクスを包括的に分析する。
我々は、これらの重要なメカニズムが協調の出現に与える影響を広範囲かつ体系的に評価する。
論文 参考訳(メタデータ) (2023-01-19T19:33:54Z) - Intrinsic fluctuations of reinforcement learning promote cooperation [0.0]
社会的ジレンマの状況における協力は、動物、人間、機械にとって不可欠である。
マルチエージェント・ラーニング・セッティングの個々の要素が協調にどのように寄与するかを実証する。
論文 参考訳(メタデータ) (2022-09-01T09:14:47Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Tackling Asymmetric and Circular Sequential Social Dilemmas with
Reinforcement Learning and Graph-based Tit-for-Tat [0.0]
社会的ジレンマは、複数の俳優が最高の結果を達成するために協力すべき状況を提供するが、怒りと恐怖は最悪の自己関心の問題に繋がる。
近年、深層強化学習の出現は、逐次社会ジレンマ(SSD)の導入により、社会ジレンマへの関心が復活した。
本稿では,エージェント間の協調の多様性をより一般化する新しい種類のマルコフゲームであるCircular Sequential Social Dilemma (CSSD)を用いて,SSDを拡張した。
論文 参考訳(メタデータ) (2022-06-26T15:42:48Z) - Hidden Agenda: a Social Deduction Game with Diverse Learned Equilibria [57.74495091445414]
社会的推論ゲームは、個人が他人に関する潜在的に信頼できない情報を合成する方法を学ぶための道を提供する。
本研究では,未知のチームアライメントのシナリオにおいて,学習エージェントを研究するための2D環境を提供する2チームソーシャル推論ゲームであるHidden Agendaを紹介する。
Hidden Agendaで訓練された強化学習エージェントは、自然言語でのコミュニケーションを必要とせずに、協力や投票など、さまざまな行動を学ぶことができることを示した。
論文 参考訳(メタデータ) (2022-01-05T20:54:10Z) - Adversarial Attacks in Cooperative AI [0.0]
多エージェント環境における単エージェント強化学習アルゴリズムは協調の育成には不十分である。
敵機械学習における最近の研究は、モデルは容易に誤った決定を下すことができることを示している。
協調AIは、以前の機械学習研究では研究されなかった新たな弱点を導入する可能性がある。
論文 参考訳(メタデータ) (2021-11-29T07:34:12Z) - Joint Attention for Multi-Agent Coordination and Social Learning [108.31232213078597]
共同注意がマルチエージェント協調とソーシャルラーニングを改善するメカニズムとして有用であることを示す。
共同の注意は、複数の環境にまたがる競争集中型批評家のベースラインよりも高いパフォーマンスをもたらす。
これらの結果から,共同注意は多エージェント学習に有用な帰納的バイアスである可能性が示唆された。
論文 参考訳(メタデータ) (2021-04-15T20:14:19Z) - Balancing Rational and Other-Regarding Preferences in
Cooperative-Competitive Environments [4.705291741591329]
混合環境は利己的で社会的利益の衝突で悪名高い。
個人と社会的インセンティブのバランスをとるBAROCCOを提案します。
メタアルゴリズムは、Qラーニングとアクタークリティカルの両方のフレームワークと互換性があります。
論文 参考訳(メタデータ) (2021-02-24T14:35:32Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は、競合する社会的影響に基づく新しい学習メカニズムの提供に焦点を当てる。
本研究は,競争競合の概念に基づいて,これらのエージェントの評価を人的視点から変えられるかを検討することを目的とする。
論文 参考訳(メタデータ) (2020-11-02T21:54:18Z) - Cooperative Control of Mobile Robots with Stackelberg Learning [63.99843063704676]
マルチロボットの協力は、エージェントが共通の目標に整合性を持たなければならない。
協調制御におけるスタックルバーグ学習という手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T07:21:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。