論文の概要: Words are not Wind -- How Joint Commitment and Reputation Solve Social
Dilemmas, without Repeated Interactions or Enforcement by Third Parties
- arxiv url: http://arxiv.org/abs/2307.06898v1
- Date: Thu, 13 Jul 2023 16:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 14:01:43.330860
- Title: Words are not Wind -- How Joint Commitment and Reputation Solve Social
Dilemmas, without Repeated Interactions or Enforcement by Third Parties
- Title(参考訳): 言葉は風ではない -- 第三政党による反復的相互作用や強制を伴わず、社会的ジレンマをいかに解決するか
- Authors: Marcus Krellner and The Anh Han
- Abstract要約: コミットメントは、自由になる誘惑があるときに明らかな目的を果たさないことを示す。
社会的ジレンマの行動は, 共同コミットメントの後にのみ判断されるが, フリーライディングを防止できることを示す。
この原則が婚姻などの公的な共同約束の理由かもしれない。
- 参考スコア(独自算出の注目度): 1.0279748604797907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Joint commitment was argued to "make our social world" (Gilbert, 2014) and to
separate us from other primates. 'Joint' entails that neither of us promises
anything, unless the other promises as well. When we need to coordinate for the
best mutual outcome, any commitment is beneficial. However, when we are tempted
to free-ride (i.e. in social dilemmas), commitment serves no obvious purpose.
We show that a reputation system, which judges action in social dilemmas only
after joint commitment, can prevent free-riding. Keeping commitments builds
trust. We can selectively enter joint commitments with trustworthy individuals
to ensure their cooperation (since they will now be judged). We simply do not
commit to cooperate with those we do not trust, and hence can freely defect
without losing the trust of others. This principle might be the reason for
pointedly public joint commitments, such as marriage. It is especially relevant
to our evolutionary past, in which no mechanisms existed to enforce commitments
reliably and impartially (e.g. via a powerful and accountable government). Much
research from anthropology, philosophy and psychology made the assumption that
past collaborations were mutually beneficial and had little possibilities to
free-ride, for which there is little support. Our evolutionary game theory
approach proves that this assumption is not necessary, because free-riding
could have been dealt with joint commitments and reputation.
- Abstract(参考訳): 共同のコミットメントは「我々の社会世界を作る」こと(Gilbert, 2014)と、私たちを他の霊長類と区別することであった。
「同意」は、お互いが約束しない限り、決して約束しないことを意味する。
最善の相互成果のために調整する必要がある場合、いかなるコミットメントも有益です。
しかしながら、フリーライド(すなわち社会的ジレンマ)に誘惑されるとき、コミットメントは明確な目的をもたない。
共同コミットメントの後にのみ社会的ジレンマの行動を判断する評価システムは,フリーライドを防止できることを示す。
コミットメントは信頼を築き上げます。
信頼できる個人と共同コミットメントを選択的に入力して、彼らの協力を保証することができます。
単に信頼していない人たちと協力することを約束しないので、他人の信頼を失うことなく、自由に失敗できるのです。
この原則は、結婚のような明確な共同コミットメントの理由かもしれない。
これは特に、(強力で説明責任のある政府を通じて)確実にかつ公平にコミットメントを強制するメカニズムが存在しない進化の過去と関係している。
人類学、哲学、心理学からの多くの研究は、過去のコラボレーションは相互に有益であり、自由参加の可能性はほとんどないという仮定を立てた。
我々の進化的ゲーム理論のアプローチは、この仮定は必要ではないことを証明します。
関連論文リスト
- Multi-agent cooperation through learning-aware policy gradients [53.63948041506278]
利己的な個人はしばしば協力に失敗し、マルチエージェント学習の根本的な課題を提起する。
本稿では,学習型強化学習のための,偏見のない高導出性ポリシー勾配アルゴリズムを提案する。
我々は, 受刑者のジレンマから, 自己関心のある学習エージェントの間でどのように, いつ, 協力関係が生じるかの新たな説明を得た。
論文 参考訳(メタデータ) (2024-10-24T10:48:42Z) - Learning to Balance Altruism and Self-interest Based on Empathy in Mixed-Motive Games [47.8980880888222]
マルチエージェントのシナリオは、しばしば混合モチベーションを伴い、潜在的な搾取に対する自己保護が可能な利他的エージェントを要求する。
共感に基づくアルトリズムと自己利益のバランスをとるためのLASE学習を提案する。
LASEはその報酬の一部を共同プレイヤにギフトとして割り当て、このアロケーションは社会的関係に基づいて動的に適応する。
論文 参考訳(メタデータ) (2024-10-10T12:30:56Z) - Emergent Cooperation under Uncertain Incentive Alignment [7.906156032228933]
頻繁な出会いを特徴とするシナリオにおける強化学習エージェント間の協力関係について検討する。
本研究では,複合モチベーション環境における協調を促進するために文献で提案されている評価や本質的な報酬などのメカニズムの効果について検討する。
論文 参考訳(メタデータ) (2024-01-23T10:55:54Z) - Incentivized Communication for Federated Bandits [67.4682056391551]
我々は,サーバがインセンティブを提供することでクライアントにデータを共有する動機付けを行う,フェデレートされた盗賊に対するインセンティブ付きコミュニケーション問題を導入する。
本稿では,実証可能な通信とインセンティブコスト保証により,ほぼ最適の後悔を実現する,最初のインセンティブ付き通信プロトコルであるInc-FedUCBを提案する。
論文 参考訳(メタデータ) (2023-09-21T00:59:20Z) - Open Set Relation Extraction via Unknown-Aware Training [72.10462476890784]
負のインスタンスを動的に合成することでモデルを正規化する未知の学習手法を提案する。
テキストの敵対的攻撃に触発されて、我々は適応的に、小さいが重要な摂動を元のトレーニングインスタンスに適用する。
実験結果から, 既知の関係の分類を損なうことなく, 未知の関係検出を行うことができた。
論文 参考訳(メタデータ) (2023-06-08T05:45:25Z) - Investigating the Impact of Direct Punishment on the Emergence of Cooperation in Multi-Agent Reinforcement Learning Systems [2.4555276449137042]
協力の問題は、人間社会の中で一様である。
AIの利用が社会全体に広まるにつれ、社会的にインテリジェントなエージェントの必要性がますます明白になりつつある。
本稿では, 直接罰, 第三者罰, パートナー選択, 評判に関連する行動と学習のダイナミクスを包括的に分析し, 評価する。
論文 参考訳(メタデータ) (2023-01-19T19:33:54Z) - The art of compensation: how hybrid teams solve collective risk dilemmas [6.081979963786028]
適応剤と固定行動剤を併用したハイブリッド集団における協調の進化的ダイナミクスについて検討した。
後者の振る舞いを補うために,まず,行動に適応することを学ぶ方法を示す。
論文 参考訳(メタデータ) (2022-05-13T13:23:42Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - On the Critical Role of Conventions in Adaptive Human-AI Collaboration [73.21967490610142]
規則依存表現と規則依存表現を区別する学習フレームワークを提案する。
複雑性が異なる3つの共同作業に対するアプローチを実験的に検証します。
論文 参考訳(メタデータ) (2021-04-07T02:46:19Z) - Cooperation and Reputation Dynamics with Reinforcement Learning [6.219565750197311]
私達は信頼および協同を確立する方法として評判がいかに使用されるか示します。
好ましくない平衡への収束を緩和する2つのメカニズムを提案する。
この結果が進化ゲーム理論の文献とどのように関係しているかを示す。
論文 参考訳(メタデータ) (2021-02-15T12:48:56Z) - Efficient Querying for Cooperative Probabilistic Commitments [29.57444821831916]
マルチエージェントシステムは、一般的な調整インフラストラクチャの中核としてコミットメントを使用できる。
慎重に選択されたコミットメントの選択について問い合わせることで、協力エージェントが(およそ)最適なコミットメントを効率的に見つける方法を示します。
論文 参考訳(メタデータ) (2020-12-14T00:47:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。