論文の概要: Deep reinforcement learning models the emergent dynamics of human
cooperation
- arxiv url: http://arxiv.org/abs/2103.04982v1
- Date: Mon, 8 Mar 2021 18:58:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:16:13.151683
- Title: Deep reinforcement learning models the emergent dynamics of human
cooperation
- Title(参考訳): 深層強化学習モデルによる人的協力の創発的ダイナミクス
- Authors: Kevin R. McKee, Edward Hughes, Tina O. Zhu, Martin J. Chadwick,
Raphael Koster, Antonio Garcia Castaneda, Charlie Beattie, Thore Graepel,
Matt Botvinick, Joel Z. Leibo
- Abstract要約: 実験では、社会的認知メカニズムが集団行動の場所と時期にどのように貢献するかを明かすことができなかった。
我々は,多エージェントの深層強化学習を活用し,社会認知メカニズム,特に,評価の高い集団行動を達成するための本質的な動機をモデル化する。
- 参考スコア(独自算出の注目度): 13.425401489679583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collective action demands that individuals efficiently coordinate how much,
where, and when to cooperate. Laboratory experiments have extensively explored
the first part of this process, demonstrating that a variety of
social-cognitive mechanisms influence how much individuals choose to invest in
group efforts. However, experimental research has been unable to shed light on
how social cognitive mechanisms contribute to the where and when of collective
action. We leverage multi-agent deep reinforcement learning to model how a
social-cognitive mechanism--specifically, the intrinsic motivation to achieve a
good reputation--steers group behavior toward specific spatial and temporal
strategies for collective action in a social dilemma. We also collect
behavioral data from groups of human participants challenged with the same
dilemma. The model accurately predicts spatial and temporal patterns of group
behavior: in this public goods dilemma, the intrinsic motivation for reputation
catalyzes the development of a non-territorial, turn-taking strategy to
coordinate collective action.
- Abstract(参考訳): 集団行動は、個人が協力する金額、場所、時期を効率的に調整することを要求する。
実験室の実験は、このプロセスの最初の部分を調査し、様々な社会的認知メカニズムが、個人が集団活動にどれだけ投資するかに影響することを実証した。
しかし、実験的な研究は集団行動の場所と時間に社会認知メカニズムがどのように寄与するかを明らかにできなかった。
本研究では,多エージェント深層強化学習を用いて,社会的ジレンマにおける集団行動の特定の空間的・時間的戦略に向けて,社会的認知的メカニズムのモデル化を行う。
また、同じジレンマで挑戦された人間の集団の行動データを収集する。
モデルは、集団行動の空間的および時間的パターンを正確に予測する:この公共財ジレンマでは、評判の本質的な動機は、集団行動をコーディネートするための非領土のターンテイク戦略の開発を触媒する。
関連論文リスト
- Social Motion Prediction with Cognitive Hierarchies [19.71780279070757]
我々は新しいベンチマーク、新しい定式化、認知に触発されたフレームワークを紹介する。
We present Wusi, a 3D multi-person motion data under the context of team sports。
戦略的社会的相互作用を予測するための認知階層構造を構築した。
論文 参考訳(メタデータ) (2023-11-08T14:51:17Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology
View [64.43238868957813]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Discovering Individual Rewards in Collective Behavior through Inverse
Multi-Agent Reinforcement Learning [3.4437947384641032]
政外逆マルチエージェント強化学習アルゴリズム(IMARL)を導入する。
実演を活用することで,アルゴリズムは報酬関数を自動的に発見し,エージェントの効果的なポリシーを学習する。
提案するIMARLアルゴリズムは, 構成成分の観点から, 集合力学を理解するための重要なステップである。
論文 参考訳(メタデータ) (2023-05-17T20:07:30Z) - Flexible social inference facilitates targeted social learning when
rewards are not observable [58.762004496858836]
グループは、個人が他人の成功から学べるときにより効果的にコーディネートする。
社会的推論能力は、このギャップを埋める助けとなり、個人が他人の基本的な知識に対する信念を更新し、観察可能な行動軌跡から成功することを示唆する。
論文 参考訳(メタデータ) (2022-12-01T21:04:03Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Development of collective behavior in newborn artificial agents [0.0]
我々は、深層強化学習と好奇心駆動学習を用いて、集団行動を発達させる新しい人工エージェントを構築する。
我々のエージェントは、本質的なモチベーション(好奇心)のみを用いて、外部の報酬なしに集団行動を学ぶ。
この研究は、高次元の感覚入力と集団行動の分離を橋渡しし、その結果、集合動物の行動のピクセル間相互作用モデルをもたらす。
論文 参考訳(メタデータ) (2021-11-06T03:46:31Z) - Improved cooperation by balancing exploration and exploitation in
intertemporal social dilemma tasks [2.541277269153809]
本研究では,探索と搾取のバランスをとることができる学習率を組み込むことで協調を達成するための新たな学習戦略を提案する。
簡単な戦略を駆使したエージェントは、時間的社会的ジレンマと呼ばれる意思決定タスクにおいて、相対的に集団的リターンを改善する。
また、学習率の多様性が強化学習エージェントの人口に与える影響についても検討し、異種集団で訓練されたエージェントが特に協調した政策を発達させることを示す。
論文 参考訳(メタデータ) (2021-10-19T08:40:56Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z) - Intrinsic Motivation for Encouraging Synergistic Behavior [55.10275467562764]
スパース・リワード・シナジスティック・タスクにおける強化学習の探索バイアスとしての本質的モチベーションの役割について検討した。
私たちのキーとなる考え方は、シナジスティックなタスクにおける本質的なモチベーションのための優れた指針は、エージェントが自分自身で行動している場合、達成できない方法で世界に影響を与える行動を取ることである。
論文 参考訳(メタデータ) (2020-02-12T19:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。