論文の概要: Deconstructing Cooperation and Ostracism via Multi-Agent Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2310.04623v1
- Date: Fri, 6 Oct 2023 23:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 17:10:07.948756
- Title: Deconstructing Cooperation and Ostracism via Multi-Agent Reinforcement
Learning
- Title(参考訳): マルチエージェント強化学習による協調とオーストラシズムの再構築
- Authors: Atsushi Ueshima, Shayegan Omidshafiei, Hirokazu Shirado
- Abstract要約: 一方のエージェントが常に協力している場合でも,ネットワークのリワイアリングが相互協力を促進することを示す。
また、オストラシズムだけでは協力を浮かび上がらせるには不十分であることも分かっています。
本研究は,協力の出現に必要な条件とメカニズムについて考察した。
- 参考スコア(独自算出の注目度): 3.3751859064985483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperation is challenging in biological systems, human societies, and
multi-agent systems in general. While a group can benefit when everyone
cooperates, it is tempting for each agent to act selfishly instead. Prior human
studies show that people can overcome such social dilemmas while choosing
interaction partners, i.e., strategic network rewiring. However, little is
known about how agents, including humans, can learn about cooperation from
strategic rewiring and vice versa. Here, we perform multi-agent reinforcement
learning simulations in which two agents play the Prisoner's Dilemma game
iteratively. Each agent has two policies: one controls whether to cooperate or
defect; the other controls whether to rewire connections with another agent.
This setting enables us to disentangle complex causal dynamics between
cooperation and network rewiring. We find that network rewiring facilitates
mutual cooperation even when one agent always offers cooperation, which is
vulnerable to free-riding. We then confirm that the network-rewiring effect is
exerted through agents' learning of ostracism, that is, connecting to
cooperators and disconnecting from defectors. However, we also find that
ostracism alone is not sufficient to make cooperation emerge. Instead,
ostracism emerges from the learning of cooperation, and existing cooperation is
subsequently reinforced due to the presence of ostracism. Our findings provide
insights into the conditions and mechanisms necessary for the emergence of
cooperation with network rewiring.
- Abstract(参考訳): 生物システム、人間社会、そして概してマルチエージェントシステムにおいて協力は困難である。
グループが全員の協力によって利益を得る一方で、各エージェントが自発的に行動するのは誘惑的です。
以前の人間の研究は、人々がこのような社会的ジレンマを克服し、相互作用パートナー、すなわち戦略的ネットワークリウィリングを選択していることを示している。
しかし、人間を含むエージェントが戦略転換から協力について学べる方法についてはほとんど分かっていない。
本稿では,2人のエージェントが反復的に囚人のジレンマゲームを行うマルチエージェント強化学習シミュレーションを行う。
各エージェントには2つのポリシーがある: 1つは協力するかどうかを制御し、もう1つは他のエージェントとの接続をリワイヤするかどうかを制御する。
この設定により,協調とネットワークリワイリングの複雑な因果ダイナミクスを解消できる。
ネットワークのリワイアリングは,一方のエージェントが常に協力を提供する場合でも相互協力を促進する。
次に,ネットワークスイッチングの効果はエージェントによるオストラシズムの学習,すなわちコオペレーターと接続し,障害者から切り離すことによってもたらされることを確認した。
しかし,オストラシズムだけでは協力関係を創り出すには不十分であることが判明した。
代わりに、ostracismは協力の学習から生まれ、ostracismの存在によって既存の協力が強化される。
本研究は,ネットワークリウィリングによる協調の出現に必要な条件とメカニズムについて考察した。
関連論文リスト
- Multi-agent cooperation through learning-aware policy gradients [53.63948041506278]
利己的な個人はしばしば協力に失敗し、マルチエージェント学習の根本的な課題を提起する。
本稿では,学習型強化学習のための,偏見のない高導出性ポリシー勾配アルゴリズムを提案する。
我々は, 受刑者のジレンマから, 自己関心のある学習エージェントの間でどのように, いつ, 協力関係が生じるかの新たな説明を得た。
論文 参考訳(メタデータ) (2024-10-24T10:48:42Z) - Scaling Large-Language-Model-based Multi-Agent Collaboration [75.5241464256688]
大規模言語モデルによるエージェントのパイオニア化は、マルチエージェントコラボレーションの設計パターンを暗示している。
神経スケーリング法則に触発された本研究では,マルチエージェント協調におけるエージェントの増加に類似の原理が適用されるかを検討する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Intrinsic fluctuations of reinforcement learning promote cooperation [0.0]
社会的ジレンマの状況における協力は、動物、人間、機械にとって不可欠である。
マルチエージェント・ラーニング・セッティングの個々の要素が協調にどのように寄与するかを実証する。
論文 参考訳(メタデータ) (2022-09-01T09:14:47Z) - The art of compensation: how hybrid teams solve collective risk dilemmas [6.081979963786028]
適応剤と固定行動剤を併用したハイブリッド集団における協調の進化的ダイナミクスについて検討した。
後者の振る舞いを補うために,まず,行動に適応することを学ぶ方法を示す。
論文 参考訳(メタデータ) (2022-05-13T13:23:42Z) - Exploring the Benefits of Teams in Multiagent Learning [5.334505575267924]
組織心理学(OP)に触発された強化学習(RL)エージェントのためのマルチエージェントチームの新しいモデルを提案する。
我々は、協力しないインセンティブにもかかわらず、チームに分かれたエージェントが協調的な社会政策を開発することを発見した。
エージェントはチームの創発的な役割をコーディネートし、学習し、すべてのエージェントの利害関係が整った時よりも高い報酬を得ることができる。
論文 参考訳(メタデータ) (2022-05-04T21:14:03Z) - Cooperative Artificial Intelligence [0.0]
我々は,ゲーム理論と人工知能の交わりに関する研究の必要性を論じる。
本稿では,外部エージェントが人工学習者の協調を促進する方法について議論する。
また, 計画エージェントをオフにしても, 結果が一定のゲームにおいて安定であることを示す。
論文 参考訳(メタデータ) (2022-02-20T16:50:37Z) - Hidden Agenda: a Social Deduction Game with Diverse Learned Equilibria [57.74495091445414]
社会的推論ゲームは、個人が他人に関する潜在的に信頼できない情報を合成する方法を学ぶための道を提供する。
本研究では,未知のチームアライメントのシナリオにおいて,学習エージェントを研究するための2D環境を提供する2チームソーシャル推論ゲームであるHidden Agendaを紹介する。
Hidden Agendaで訓練された強化学習エージェントは、自然言語でのコミュニケーションを必要とせずに、協力や投票など、さまざまな行動を学ぶことができることを示した。
論文 参考訳(メタデータ) (2022-01-05T20:54:10Z) - Adversarial Attacks in Cooperative AI [0.0]
多エージェント環境における単エージェント強化学習アルゴリズムは協調の育成には不十分である。
敵機械学習における最近の研究は、モデルは容易に誤った決定を下すことができることを示している。
協調AIは、以前の機械学習研究では研究されなかった新たな弱点を導入する可能性がある。
論文 参考訳(メタデータ) (2021-11-29T07:34:12Z) - On Emergent Communication in Competitive Multi-Agent Teams [116.95067289206919]
外部のエージェントチームによるパフォーマンスの競争が社会的影響として作用するかどうかを検討する。
以上の結果から,外部競争の影響により精度と一般化が向上し,コミュニケーション言語が急速に出現することが示唆された。
論文 参考訳(メタデータ) (2020-03-04T01:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。