論文の概要: Incentivising cooperation by rewarding the weakest member
- arxiv url: http://arxiv.org/abs/2212.00119v1
- Date: Tue, 4 Oct 2022 14:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 21:56:02.879268
- Title: Incentivising cooperation by rewarding the weakest member
- Title(参考訳): 最弱メンバーへの報酬による協力のインセンティブ
- Authors: Jory Schossau, Bamshad Shirmohammadi, Arend Hintze
- Abstract要約: 欲張り戦略は全てのエージェントの ポジティブな結果を減らせる
複雑な状況では、公平な振る舞いよりも利己的な戦略のために機械学習の目的を設計することがはるかに容易である。
これは、より公平な振る舞いをもたらすと同時に、個人の成果を最大化することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous agents that act with each other on behalf of humans are becoming
more common in many social domains, such as customer service, transportation,
and health care. In such social situations greedy strategies can reduce the
positive outcome for all agents, such as leading to stop-and-go traffic on
highways, or causing a denial of service on a communications channel. Instead,
we desire autonomous decision-making for efficient performance while also
considering equitability of the group to avoid these pitfalls. Unfortunately,
in complex situations it is far easier to design machine learning objectives
for selfish strategies than for equitable behaviors. Here we present a simple
way to reward groups of agents in both evolution and reinforcement learning
domains by the performance of their weakest member. We show how this yields
``fairer'' more equitable behavior, while also maximizing individual outcomes,
and we show the relationship to biological selection mechanisms of group-level
selection and inclusive fitness theory.
- Abstract(参考訳): 人間に代わって互いに行動する自律エージェントは、カスタマーサービス、輸送、医療など多くの社会ドメインで一般的になってきている。
このような社会的状況において、欲求戦略は、高速道路での停車や通信路でのサービス拒否など、全てのエージェントのポジティブな結果を減らすことができる。
代わりに、これらの落とし穴を避けるためにグループの公平性を考慮しながら、効率的なパフォーマンスのために自律的な意思決定を望んでいます。
残念ながら、複雑な状況では、公平な振る舞いよりも利己的な戦略のために機械学習の目的を設計するのがずっと簡単です。
本稿では,進化領域と強化学習領域の両方におけるエージェント群を,最も弱いメンバのパフォーマンスによって報奨する簡単な方法を提案する。
また, グループレベルの選択と包括的適合性理論の生物学的選択機構との関連性を示した。
関連論文リスト
- Reciprocal Reward Influence Encourages Cooperation From Self-Interested Agents [2.1301560294088318]
自己関心の個人間の協力は、自然界で広く見られる現象であるが、人工的な知的エージェント間の相互作用においては、いまだ解明されていない。
そこで,本研究では,リターンに対する相手の行動の影響を再現するために,本質的に動機づけられた強化学習エージェントであるReciprocatorを紹介する。
本研究では,同時学習において,時間的に拡張された社会的ジレンマにおける協調を促進するために,共用者が利用できることを示す。
論文 参考訳(メタデータ) (2024-06-03T06:07:27Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Flexible social inference facilitates targeted social learning when
rewards are not observable [58.762004496858836]
グループは、個人が他人の成功から学べるときにより効果的にコーディネートする。
社会的推論能力は、このギャップを埋める助けとなり、個人が他人の基本的な知識に対する信念を更新し、観察可能な行動軌跡から成功することを示唆する。
論文 参考訳(メタデータ) (2022-12-01T21:04:03Z) - Safe adaptation in multiagent competition [48.02377041620857]
マルチエージェントの競争シナリオでは、エゴエージェントは前例のない振る舞いを持つ新しい相手に適応しなければならない。
エゴエージェントは、相手を悪用するために自身の行動を更新するので、その行動はより悪用される可能性がある。
我々は,エゴエージェントを正規化相手モデルに対してトレーニングする安全な適応手法を開発する。
論文 参考訳(メタデータ) (2022-03-14T23:53:59Z) - The Good Shepherd: An Oracle Agent for Mechanism Design [6.226991885861965]
本研究では,適応型コプレーヤの学習軌道上での評価を行うエージェント構築アルゴリズムを提案する。
以上の結果から,我々のメカニズムは参加者の望ましい成果への戦略をシェパードできることが示唆された。
論文 参考訳(メタデータ) (2022-02-21T11:28:09Z) - Improved cooperation by balancing exploration and exploitation in
intertemporal social dilemma tasks [2.541277269153809]
本研究では,探索と搾取のバランスをとることができる学習率を組み込むことで協調を達成するための新たな学習戦略を提案する。
簡単な戦略を駆使したエージェントは、時間的社会的ジレンマと呼ばれる意思決定タスクにおいて、相対的に集団的リターンを改善する。
また、学習率の多様性が強化学習エージェントの人口に与える影響についても検討し、異種集団で訓練されたエージェントが特に協調した政策を発達させることを示す。
論文 参考訳(メタデータ) (2021-10-19T08:40:56Z) - Decentralized Reinforcement Learning: Global Decision-Making via Local
Economic Transactions [80.49176924360499]
我々は、シーケンシャルな意思決定問題を解決するために、単純で専門的で自己関心のあるエージェントの社会を指示する枠組みを確立する。
我々は分散強化学習アルゴリズムのクラスを導出する。
我々は、より効率的な移動学習のための社会固有のモジュラー構造の潜在的な利点を実証する。
論文 参考訳(メタデータ) (2020-07-05T16:41:09Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Intrinsic Motivation for Encouraging Synergistic Behavior [55.10275467562764]
スパース・リワード・シナジスティック・タスクにおける強化学習の探索バイアスとしての本質的モチベーションの役割について検討した。
私たちのキーとなる考え方は、シナジスティックなタスクにおける本質的なモチベーションのための優れた指針は、エージェントが自分自身で行動している場合、達成できない方法で世界に影響を与える行動を取ることである。
論文 参考訳(メタデータ) (2020-02-12T19:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。