論文の概要: Bounded Incentives in Manipulating the Probabilistic Serial Rule
- arxiv url: http://arxiv.org/abs/2001.10640v1
- Date: Tue, 28 Jan 2020 23:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:50:13.098197
- Title: Bounded Incentives in Manipulating the Probabilistic Serial Rule
- Title(参考訳): 確率的シリアルルールの操作における境界インセンティブ
- Authors: Zihe Wang and Zhide Wei and Jie Zhang
- Abstract要約: 確率的シリアルはインセンティブ互換ではない。
戦略行動による実質的な実用性の向上は、自己関心のエージェントがメカニズムを操作するきっかけとなる。
このメカニズムのインセンティブ比が$frac32$であることを示す。
- 参考スコア(独自算出の注目度): 8.309903898123526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Probabilistic Serial mechanism is well-known for its desirable fairness
and efficiency properties. It is one of the most prominent protocols for the
random assignment problem. However, Probabilistic Serial is not
incentive-compatible, thereby these desirable properties only hold for the
agents' declared preferences, rather than their genuine preferences. A
substantial utility gain through strategic behaviors would trigger
self-interested agents to manipulate the mechanism and would subvert the very
foundation of adopting the mechanism in practice. In this paper, we
characterize the extent to which an individual agent can increase its utility
by strategic manipulation. We show that the incentive ratio of the mechanism is
$\frac{3}{2}$. That is, no agent can misreport its preferences such that its
utility becomes more than 1.5 times of what it is when reports truthfully. This
ratio is a worst-case guarantee by allowing an agent to have complete
information about other agents' reports and to figure out the best response
strategy even if it is computationally intractable in general. To complement
this worst-case study, we further evaluate an agent's utility gain on average
by experiments. The experiments show that an agent' incentive in manipulating
the rule is very limited. These results shed some light on the robustness of
Probabilistic Serial against strategic manipulation, which is one step further
than knowing that it is not incentive-compatible.
- Abstract(参考訳): 確率的シリアル機構はその望ましい公正性と効率性でよく知られている。
これはランダム割当問題に対する最も顕著なプロトコルの1つである。
しかし、確率的直列はインセンティブ互換ではないため、これらの望ましい性質はエージェントの宣言された好みに対してのみ保持される。
戦略行動による実質的な実用性の向上は、自己関心のエージェントがメカニズムを操作するきっかけとなり、実際にメカニズムを採用するという基礎を覆すことになる。
本稿では,個々のエージェントが戦略的操作によってその有用性を向上できる程度を特徴付ける。
機構のインセンティブ比が$\frac{3}{2}$であることを示す。
すなわち、その実用性が真に報告する場合の1.5倍以上になるように、その好みを誤って報告することはできない。
この比率は、エージェントが他のエージェントのレポートに関する完全な情報を持ち、計算上一般に難解であっても最良の応答戦略を見出すことによって、最悪の場合の保証である。
この最悪の研究を補完するために, 実験により, エージェントの有効利用率を更に評価した。
実験は、エージェントがルールを操作する動機は非常に限られていることを示している。
これらの結果は、戦略的な操作に対する確率的連続の堅牢性に光を当てた。
関連論文リスト
- Strategic Classification With Externalities [11.36782598786846]
戦略分類問題の新しい変種を提案する。
実世界のアプリケーションによって動機づけられた我々のモデルは、あるエージェントの操作が他のエージェントに影響を与えることを決定的に許している。
特定の仮定の下では、このエージェント操作ゲームの純粋なナッシュ平衡はユニークであり、効率的に計算できることが示される。
論文 参考訳(メタデータ) (2024-10-10T15:28:04Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Select to Perfect: Imitating desired behavior from large multi-agent data [28.145889065013687]
AIエージェントのDesired特徴は、望ましいスコアを割り当てることで表現できる。
まず,各エージェントの行動が集団的嗜好性スコアに及ぼす影響を評価する。
本稿では,エージェントの交換値の概念を提案する。これは,個々のエージェントの集団的望ましさスコアへの貢献を定量化するものである。
論文 参考訳(メタデータ) (2024-05-06T15:48:24Z) - Mistake, Manipulation and Margin Guarantees in Online Strategic Classification [0.0]
到着した各エージェントが真の特徴ベクトルを操作して正の予測ラベルを得るという,オンライン戦略分類問題を考える。
我々は、様々なエージェントコスト構造に対する収束、有限の誤り、有限の操作保証を証明した。
実データおよび合成データに関する数値的な研究により、新しいアルゴリズムは、マージン、操作数、誤り数において、以前のアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-27T01:05:45Z) - Pure Exploration under Mediators' Feedback [63.56002444692792]
マルチアームバンディット(Multi-armed bandits)は、各インタラクションステップにおいて、学習者が腕を選択し、報酬を観察する、シーケンシャルな意思決定フレームワークである。
本稿では,学習者が仲介者の集合にアクセスできるシナリオについて考察する。
本稿では,学習者には仲介者の方針が知られていると仮定して,最適な腕を発見するための逐次的意思決定戦略を提案する。
論文 参考訳(メタデータ) (2023-08-29T18:18:21Z) - Estimating and Incentivizing Imperfect-Knowledge Agents with Hidden
Rewards [4.742123770879715]
実際には、インセンティブ提供者はインセンティブ付きエージェントの報酬実現を観察できないことが多い。
本稿では,自己関心学習エージェントと学習プリンシパルの繰り返し選択ゲームについて検討する。
我々は,プリンシパルのインセンティブとエージェントの選択履歴のみを入力とする推定器を導入する。
論文 参考訳(メタデータ) (2023-08-13T08:12:01Z) - Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards
and Ethical Behavior in the MACHIAVELLI Benchmark [61.43264961005614]
我々は、50万以上のリッチで多様なシナリオを含む134個のChoose-Your-Own-Adventureゲームのベンチマークを開発する。
我々は、エージェントの傾向をパワー・シーキングと評価し、不使用を生じさせ、倫理的違反を犯す。
以上の結果から,エージェントは有能かつ道徳的に行動できることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T17:59:03Z) - Principal-Agent Hypothesis Testing [54.154244569974864]
我々は、規制当局(プリンシパル)と医薬品会社のような実験者(エージェント)との関係を考察する。
医薬品の有効性は規制当局に知られていないため、医薬品会社は規制当局に有効性を証明するために費用がかかる裁判を行わなければならない。
エージェントの戦略行動に頑健なプロトコルを設計する方法を示し、戦略参加者の存在下で最適なプロトコルを導出する。
論文 参考訳(メタデータ) (2022-05-13T17:59:23Z) - Cursed yet Satisfied Agents [15.104201344012344]
勝者の高い入札は、勝者が売り物の価値を過大評価し、結果として負の効用が生じることを意味する。
呪われても真の信号を入札するようにエージェントにインセンティブを与えるメカニズムを提案します。
論文 参考訳(メタデータ) (2021-04-02T01:15:53Z) - Learning Strategies in Decentralized Matching Markets under Uncertain
Preferences [91.3755431537592]
エージェントの選好が不明な場合,共有資源の不足の設定における意思決定の問題について検討する。
我々のアプローチは、再生されたカーネルヒルベルト空間における好みの表現に基づいている。
エージェントの期待した利益を最大化する最適な戦略を導出する。
論文 参考訳(メタデータ) (2020-10-29T03:08:22Z) - VCG Mechanism Design with Unknown Agent Values under Stochastic Bandit
Feedback [104.06766271716774]
本研究では,エージェントが自己の価値を知らない場合に,マルチラウンドの福祉最大化機構設計問題について検討する。
まず、福祉に対する後悔の3つの概念、各エージェントの個々のユーティリティ、メカニズムの3つの概念を定義します。
当社のフレームワークは価格体系を柔軟に制御し、エージェントと販売者の後悔のトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-04-19T18:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。