論文の概要: Promoting Non-Cooperation Through Ordering
- arxiv url: http://arxiv.org/abs/2303.17971v1
- Date: Fri, 31 Mar 2023 11:14:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 14:12:27.764632
- Title: Promoting Non-Cooperation Through Ordering
- Title(参考訳): 注文による非協力の促進
- Authors: David Sychrovsky, Sameer Desai, Martin Loebl
- Abstract要約: 中央当局が公に知られた命令で違反者を処理した場合、違反者に罰金を支払うよう適切に促すことが示される。
我々は、中央機関が受け取る総支払額を定量化し、その額が大幅に増加することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many real world situations, like minor traffic offenses in big cities, a
central authority is tasked with periodic administering punishments to a large
number of individuals. Common practice is to give each individual a chance to
suffer a smaller fine and be guaranteed to avoid the legal process with
probable considerably larger punishment. However, thanks to the large number of
offenders and a limited capacity of the central authority, the individual risk
is typically small and a rational individual will not choose to pay the fine.
Here we show that if the central authority processes the offenders in a
publicly known order, it properly incentives the offenders to pay the fine. We
show analytically and on realistic experiments that our mechanism promotes
non-cooperation and incentives individuals to pay. Moreover, the same holds for
an arbitrary coalition. We quantify the expected total payment the central
authority receives, and show it increases considerably.
- Abstract(参考訳): 大都市の小さな交通犯罪のような現実の多くの状況では、中央の権威は多数の個人に対して定期的に罰を課す。
一般的な慣習は、個人により小さな罰金を科す機会を与え、より大きな刑罰を課す法的手続きを避けることを保証することである。
しかし、多くの犯罪者と中央権力の限られた能力のおかげで、個人のリスクは通常小さく、合理的な個人は罰金を支払うことを選択しない。
ここで、中央機関が犯人を公的な命令で処理した場合、犯人に罰金を科すよう適切にインセンティブを与える。
我々は、我々のメカニズムが非協力と個人が支払うインセンティブを促進するという分析的および現実的な実験を示す。
さらに、任意の連立についても同じことが言える。
我々は、中央機関が受け取る総支払額を定量化し、その額が大幅に増加することを示す。
関連論文リスト
- On the Hardness of Decentralized Multi-Agent Policy Evaluation under Byzantine Attacks [12.696705862929337]
完全分散型マルチエージェント政策評価問題について,最大$f$の障害エージェントの存在下で検討する。
特に、モデル中毒設定を伴ういわゆるビザンツの欠陥モデルに焦点を当てる。
論文 参考訳(メタデータ) (2024-09-19T16:27:08Z) - The Benefits of Power Regularization in Cooperative Reinforcement Learning [5.141502818619855]
我々は、協調RLシステムにおける電力集中を明示的に規則化すると、単一のエージェントの故障に対してより堅牢なシステムが得られると主張している。
我々は,このパワーレギュラー化目標に向けて,SBPR(Sample Based Power Regularization)とPRIM(Intrinsic Motivation)によるパワーレギュラー化(Power Regularization)の2つのアルゴリズムを提案する。
実験の結果、両アルゴリズムがタスク報酬とパワーのバランスをとっており、パワーの低下と破滅的な事象の回避に繋がることがわかった。
論文 参考訳(メタデータ) (2024-06-17T06:10:37Z) - Incentivized Learning in Principal-Agent Bandit Games [62.41639598376539]
この作品では、主役がエージェントを通してしか環境と対話できないような、主役と主役のバンディットゲームが繰り返されている。
校長は、報酬を補うインセンティブを提供することで、エージェントの判断に影響を与えることができる。
我々は,マルチアームと線形コンテキスト設定の両方において,プリンシパルの後悔に対して,ほぼ最適な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-06T16:00:46Z) - Byzantine-Resilient Decentralized Multi-Armed Bandits [25.499420566469098]
エージェント間の情報混合ステップを不整合および極端な値の切り離しで融合するアルゴリズムを開発する。
このフレームワークは、コンピュータネットワークの攻撃者をモデル化したり、攻撃的なコンテンツをレコメンデーターシステムに攻撃したり、金融市場のマニピュレータとして利用することができる。
論文 参考訳(メタデータ) (2023-10-11T09:09:50Z) - Domain Generalization without Excess Empirical Risk [83.26052467843725]
一般的なアプローチは、一般化を捉え、ペナルティと共同で経験的リスクを最小化するために、データ駆動の代理ペナルティを設計することである。
我々は、このレシピの重大な失敗モードは、共同最適化における誤ったペナルティや難しさによる過度なリスクであると主張している。
我々は,この問題を解消するアプローチを提案し,経験的リスクと刑罰を同時に最小化する代わりに,経験的リスクの最適性の制約の下でのペナルティを最小化する。
論文 参考訳(メタデータ) (2023-08-30T08:46:46Z) - Incentive-Theoretic Bayesian Inference for Collaborative Science [59.15962177829337]
未知のパラメータについて、プライベートな先行エージェントが存在する場合の仮説テストについて検討する。
エージェントの戦略行動によって明らかにされる情報を活用する統計的推論を行う方法を示す。
論文 参考訳(メタデータ) (2023-07-07T17:59:01Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Fair Prediction with Endogenous Behavior [14.004287903552534]
刑事司法を例として,社会が投獄規則を選択するモデルについて検討する。
その結果,グループ間でのI型とII型エラーの等化は,犯罪率の最小化という目標と一致していることがわかった。
論文 参考訳(メタデータ) (2020-02-18T16:07:25Z) - Public Bayesian Persuasion: Being Almost Optimal and Almost Persuasive [57.47546090379434]
i) 任意の状態空間, (ii) 任意の行動空間, (iii) 任意の送信者のユーティリティ関数を用いて, 一般の状況下での公衆の説得問題を考察する。
任意の公的な説得問題に対して準多項式時間ビクテリア近似アルゴリズムを提案し、特定の設定でQPTASを出力する。
論文 参考訳(メタデータ) (2020-02-12T18:59:18Z) - Case Study: Predictive Fairness to Reduce Misdemeanor Recidivism Through
Social Service Interventions [4.651149317838983]
ロサンゼルス市検事局は、新しいRecidivism Reduction and Drug Diversion Unit (R2D2)を創設した。
本稿では,機械学習に基づく意思決定に予測的株式を組み込むケーススタディとして,この新しいユニットとのコラボレーションについて述べる。
論文 参考訳(メタデータ) (2020-01-24T23:52:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。