論文の概要: Words are not Wind -- How Joint Commitment and Reputation Solve Social
Dilemmas, without Repeated Interactions or Enforcement by Third Parties
- arxiv url: http://arxiv.org/abs/2307.06898v1
- Date: Thu, 13 Jul 2023 16:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 14:01:43.330860
- Title: Words are not Wind -- How Joint Commitment and Reputation Solve Social
Dilemmas, without Repeated Interactions or Enforcement by Third Parties
- Title(参考訳): 言葉は風ではない -- 第三政党による反復的相互作用や強制を伴わず、社会的ジレンマをいかに解決するか
- Authors: Marcus Krellner and The Anh Han
- Abstract要約: コミットメントは、自由になる誘惑があるときに明らかな目的を果たさないことを示す。
社会的ジレンマの行動は, 共同コミットメントの後にのみ判断されるが, フリーライディングを防止できることを示す。
この原則が婚姻などの公的な共同約束の理由かもしれない。
- 参考スコア(独自算出の注目度): 1.0279748604797907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Joint commitment was argued to "make our social world" (Gilbert, 2014) and to
separate us from other primates. 'Joint' entails that neither of us promises
anything, unless the other promises as well. When we need to coordinate for the
best mutual outcome, any commitment is beneficial. However, when we are tempted
to free-ride (i.e. in social dilemmas), commitment serves no obvious purpose.
We show that a reputation system, which judges action in social dilemmas only
after joint commitment, can prevent free-riding. Keeping commitments builds
trust. We can selectively enter joint commitments with trustworthy individuals
to ensure their cooperation (since they will now be judged). We simply do not
commit to cooperate with those we do not trust, and hence can freely defect
without losing the trust of others. This principle might be the reason for
pointedly public joint commitments, such as marriage. It is especially relevant
to our evolutionary past, in which no mechanisms existed to enforce commitments
reliably and impartially (e.g. via a powerful and accountable government). Much
research from anthropology, philosophy and psychology made the assumption that
past collaborations were mutually beneficial and had little possibilities to
free-ride, for which there is little support. Our evolutionary game theory
approach proves that this assumption is not necessary, because free-riding
could have been dealt with joint commitments and reputation.
- Abstract(参考訳): 共同のコミットメントは「我々の社会世界を作る」こと(Gilbert, 2014)と、私たちを他の霊長類と区別することであった。
「同意」は、お互いが約束しない限り、決して約束しないことを意味する。
最善の相互成果のために調整する必要がある場合、いかなるコミットメントも有益です。
しかしながら、フリーライド(すなわち社会的ジレンマ)に誘惑されるとき、コミットメントは明確な目的をもたない。
共同コミットメントの後にのみ社会的ジレンマの行動を判断する評価システムは,フリーライドを防止できることを示す。
コミットメントは信頼を築き上げます。
信頼できる個人と共同コミットメントを選択的に入力して、彼らの協力を保証することができます。
単に信頼していない人たちと協力することを約束しないので、他人の信頼を失うことなく、自由に失敗できるのです。
この原則は、結婚のような明確な共同コミットメントの理由かもしれない。
これは特に、(強力で説明責任のある政府を通じて)確実にかつ公平にコミットメントを強制するメカニズムが存在しない進化の過去と関係している。
人類学、哲学、心理学からの多くの研究は、過去のコラボレーションは相互に有益であり、自由参加の可能性はほとんどないという仮定を立てた。
我々の進化的ゲーム理論のアプローチは、この仮定は必要ではないことを証明します。
関連論文リスト
- Learning to Mitigate Externalities: the Coase Theorem with Hindsight Rationality [62.18973784316808]
経済理論において、外部性の概念は、社会的福祉に影響を与えるプレイヤー間の相互作用から生じる間接的な効果を指す。
我々の研究は、バーゲンが根底にあるゲームについて完全な知識を持っているという古典的な仮定を取り除いている。
次に、プレイヤーが全福祉を最大化する交渉戦略を学習できるようにするための政策を設計する。
論文 参考訳(メタデータ) (2024-06-28T11:00:53Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Impossibility of adversarial self-testing and secure sampling [0.07499722271664146]
対戦型自己検査は安全なサンプリングを意味することを示す。
二次元量子暗号における可視性の拡張により、これらのタスクがいずれも簡単な設定では不可能であるという簡単な証明を与える。
論文 参考訳(メタデータ) (2023-10-19T15:42:01Z) - Bandit Social Learning: Exploration under Myopic Behavior [58.75758600464338]
オンラインプラットフォーム上でのレビューによって動機付けられた社会学習のダイナミクスについて検討する。
エージェントはまとめて単純なマルチアームのバンディットプロトコルに従うが、各エージェントは探索を伴わずにミオプティカルに振る舞う。
このような振る舞いに対して,スターク学習の失敗を導出し,好意的な結果を提供する。
論文 参考訳(メタデータ) (2023-02-15T01:57:57Z) - Building a Culture of Reproducibility in Academic Research [55.22219308265945]
再現性(reproducibility)は、研究者が「抽象的な」議論をしない理想であるが、願望が学界の冷酷な現実と出会うと、しばしば「消える」という理想である。
このエッセイでは、他の優先順位に対する要求のバランスをとりながら、運用方法に不満を抱く個人的な経験を共有します。
論文 参考訳(メタデータ) (2022-12-27T16:03:50Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - On the Relation of Trust and Explainability: Why to Engineer for
Trustworthiness [0.0]
このような要求に対する主要な動機の1つは、説明可能性が利害関係者のシステムへの信頼を促進することが期待されていることである。
最近の心理学的な研究は、説明が必ずしも信頼を促進するとは限らないことを示唆している。
信頼性が自動的に信頼につながるわけではないとしても、主に信頼性のためにエンジニアする理由はいくつかある、と私たちは主張する。
論文 参考訳(メタデータ) (2021-08-11T18:02:08Z) - Cooperation and Reputation Dynamics with Reinforcement Learning [6.219565750197311]
私達は信頼および協同を確立する方法として評判がいかに使用されるか示します。
好ましくない平衡への収束を緩和する2つのメカニズムを提案する。
この結果が進化ゲーム理論の文献とどのように関係しているかを示す。
論文 参考訳(メタデータ) (2021-02-15T12:48:56Z) - Efficient Querying for Cooperative Probabilistic Commitments [29.57444821831916]
マルチエージェントシステムは、一般的な調整インフラストラクチャの中核としてコミットメントを使用できる。
慎重に選択されたコミットメントの選択について問い合わせることで、協力エージェントが(およそ)最適なコミットメントを効率的に見つける方法を示します。
論文 参考訳(メタデータ) (2020-12-14T00:47:09Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。