論文の概要: Loss aversion fosters coordination among independent reinforcement
learners
- arxiv url: http://arxiv.org/abs/1912.12633v1
- Date: Sun, 29 Dec 2019 11:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 07:45:36.851380
- Title: Loss aversion fosters coordination among independent reinforcement
learners
- Title(参考訳): 損失回避は独立強化学習者間の協調を促進する
- Authors: Marco Jerome Gasparrini, Mart\'i S\'anchez-Fibla
- Abstract要約: 自立型自己学習エージェントにおける協調行動の出現を促進する要因について検討する。
我々は、独立した強化学習エージェントでゲームの2つのバージョンをモデル化する。
我々は,損失回避の導入が,その出現を加速させることで協調を促進することを実験的に証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study what are the factors that can accelerate the emergence of
collaborative behaviours among independent selfish learning agents. We depart
from the "Battle of the Exes" (BoE), a spatial repeated game from which human
behavioral data has been obtained (by Hawkings and Goldstone, 2016) that we
find interesting because it considers two cases: a classic game theory version,
called ballistic, in which agents can only make one action/decision (equivalent
to the Battle of the Sexes) and a spatial version, called dynamic, in which
agents can change decision (a spatial continuous version). We model both
versions of the game with independent reinforcement learning agents and we
manipulate the reward function transforming it into an utility introducing
"loss aversion": the reward that an agent obtains can be perceived as less
valuable when compared to what the other got. We prove experimentally the
introduction of loss aversion fosters cooperation by accelerating its
appearance, and by making it possible in some cases like in the dynamic
condition. We suggest that this may be an important factor explaining the rapid
converge of human behaviour towards collaboration reported in the experiment of
Hawkings and Goldstone.
- Abstract(参考訳): 自立型利己的学習エージェント間の協調行動の出現を促進する要因について検討した。
我々は、人間の行動データ(ホーキングスとゴールドストーンによる2016年)が得られた空間的反復ゲームである「エクセズの戦い」(boe)から出発し、この2つのケースを考慮すれば興味深いことが分かる: 古典的なゲーム理論バージョン、すなわち、エージェントが1つのアクション/決定(セクシーズの戦いに相当)しかできない古典的なゲーム理論バージョンと、エージェントが意思決定を変更できる空間バージョン(空間的連続バージョン)である。
独立強化学習エージェントを用いて両バージョンをモデル化し,これを「ロス・アバージョン」を導入したユーティリティに変換する報酬関数を操作する。
損失回避の導入は, 出現を加速し, 動的条件などで可能とすることで, 協調を促進することを実験的に証明する。
これはホーキングスとゴールドストーンの実験で報告されたコラボレーションに対する人間の行動の急速な収束を説明する重要な要素である可能性が示唆されている。
関連論文リスト
- Reciprocal Reward Influence Encourages Cooperation From Self-Interested Agents [2.1301560294088318]
自己関心の個人間の協力は、自然界で広く見られる現象であるが、人工的な知的エージェント間の相互作用においては、いまだ解明されていない。
そこで,本研究では,リターンに対する相手の行動の影響を再現するために,本質的に動機づけられた強化学習エージェントであるReciprocatorを紹介する。
本研究では,同時学習において,時間的に拡張された社会的ジレンマにおける協調を促進するために,共用者が利用できることを示す。
論文 参考訳(メタデータ) (2024-06-03T06:07:27Z) - Sim-to-Real Causal Transfer: A Metric Learning Approach to
Causally-Aware Interaction Representations [62.48505112245388]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
因果アノテーションを用いた潜在表現を正規化するための計量学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z) - Intrinsic fluctuations of reinforcement learning promote cooperation [0.0]
社会的ジレンマの状況における協力は、動物、人間、機械にとって不可欠である。
マルチエージェント・ラーニング・セッティングの個々の要素が協調にどのように寄与するかを実証する。
論文 参考訳(メタデータ) (2022-09-01T09:14:47Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - Moody Learners -- Explaining Competitive Behaviour of Reinforcement
Learning Agents [65.2200847818153]
競合シナリオでは、エージェントは動的環境を持つだけでなく、相手の行動に直接影響される。
エージェントのQ値の観察は通常、その振る舞いを説明する方法であるが、選択されたアクション間の時間的関係は示さない。
論文 参考訳(メタデータ) (2020-07-30T11:30:42Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Agent-Based Simulation of Collective Cooperation: From Experiment to
Model [0.0]
我々は,人が密集した静的な群集を通り抜けたときに何が起こるのかを観察する実験を行う。
我々は,協力を必要とする状況に対するエージェントの認識と認知処理を取り入れたモデルを構築した。
エージェントが密集した群衆をうまく通過する能力は、心理的モデルの効果として現れる。
論文 参考訳(メタデータ) (2020-05-26T13:29:08Z) - Multi-Issue Bargaining With Deep Reinforcement Learning [0.0]
本稿では,バーゲティングゲームにおける深層強化学習の活用について検討する。
入札と受け入れ戦略のために2つのアクター・クリティカル・ネットワークが訓練された。
ニューラルエージェントは時間ベースのエージェントを活用することを学び、決定優先値の明確な遷移を達成する。
彼らはまた、譲歩、割引要因、行動に基づく戦略の異なる組み合わせに対して適応的な行動を示す。
論文 参考訳(メタデータ) (2020-02-18T18:33:46Z) - Intrinsic Motivation for Encouraging Synergistic Behavior [55.10275467562764]
スパース・リワード・シナジスティック・タスクにおける強化学習の探索バイアスとしての本質的モチベーションの役割について検討した。
私たちのキーとなる考え方は、シナジスティックなタスクにおける本質的なモチベーションのための優れた指針は、エージェントが自分自身で行動している場合、達成できない方法で世界に影響を与える行動を取ることである。
論文 参考訳(メタデータ) (2020-02-12T19:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。