論文の概要: Joint Scoring Rules: Zero-Sum Competition Avoids Performative Prediction
- arxiv url: http://arxiv.org/abs/2412.20732v1
- Date: Mon, 30 Dec 2024 06:06:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:05:26.261382
- Title: Joint Scoring Rules: Zero-Sum Competition Avoids Performative Prediction
- Title(参考訳): 共同スコーリングルール:ゼロサムコンペティションはパフォーマンス予測を回避
- Authors: Rubi Hudson,
- Abstract要約: 意思決定シナリオでは、プリンシパルは専門家エージェントから条件付き予測を使用して、選択を通知することができる。
予測精度を最適化するエージェントは、プリンシパルをより予測可能な行動に向けて操作するインセンティブを与え、プリンシパルが真の嗜好を決定的に選択できないようにする。
我々は,複数のエージェントの協調評価により,この不可能な結果を克服できることを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In a decision-making scenario, a principal could use conditional predictions from an expert agent to inform their choice. However, this approach would introduce a fundamental conflict of interest. An agent optimizing for predictive accuracy is incentivized to manipulate their principal towards more predictable actions, which prevents that principal from being able to deterministically select their true preference. We demonstrate that this impossibility result can be overcome through the joint evaluation of multiple agents. When agents are made to engage in zero-sum competition, their incentive to influence the action taken is eliminated, and the principal can identify and take the action they most prefer. We further prove that this zero-sum setup is unique, efficiently implementable, and applicable under stochastic choice. Experiments in a toy environment demonstrate that training on a zero-sum objective significantly enhances both predictive accuracy and principal utility, and can eliminate previously learned manipulative behavior.
- Abstract(参考訳): 意思決定シナリオでは、プリンシパルは専門家エージェントから条件付き予測を使用して、選択を通知することができる。
しかし、このアプローチは基本的な利害対立をもたらすだろう。
予測精度を最適化するエージェントは、プリンシパルをより予測可能な行動に向けて操作するインセンティブを与え、プリンシパルが真の嗜好を決定的に選択できないようにする。
我々は,複数のエージェントの協調評価により,この不可能な結果を克服できることを実証した。
エージェントがゼロサム競争に従事させると、アクションに影響を与えるインセンティブが排除され、プリンシパルは彼らが最も好むアクションを特定し、取ることができる。
さらに、このゼロサムセットアップはユニークで、効率的な実装が可能であり、確率的選択の下で適用可能であることを証明した。
玩具環境での実験では、ゼロサム目標のトレーニングが予測精度と主効力の両方を著しく向上させ、以前に学習した操作行動を排除できることが示されている。
関連論文リスト
- Identifying and Addressing Delusions for Target-Directed Decision-Making [81.22463009144987]
ターゲット指向のエージェントは、問題のあるターゲットを盲目的に追跡する傾向があり、その結果、より一層の一般化と安全性の破滅が生じる。
これらの行動は、トレーニングに関する不適切な設計から生じる妄想の結果であることを示す。
我々は、エージェントが先制的かつ自律的に妄想に対処する方法を実証する。
論文 参考訳(メタデータ) (2024-10-09T17:35:25Z) - Conformal Prediction Sets Can Cause Disparate Impact [4.61590049339329]
コンフォーマル予測は、機械学習モデルの不確実性を定量化するための有望な方法である。
予測セットを提供することは、彼らの決定の不公平性を高めることができることを示す。
カバー範囲を等化するのではなく、経験的により公平な結果をもたらすグループ間でセットサイズを等化することを提案する。
論文 参考訳(メタデータ) (2024-10-02T18:00:01Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Causal Strategic Learning with Competitive Selection [10.237954203296187]
複数の意思決定者の下で因果戦略学習におけるエージェント選択の問題について検討する。
最適な選択規則は、最適なエージェントを選択することと、エージェントの改善を最大化するためのインセンティブを提供することの間のトレードオフであることを示す。
我々は、真の因果パラメータを回復するために、すべての意思決定者がまとめて採用しなければならない協調プロトコルを提供する。
論文 参考訳(メタデータ) (2023-08-30T18:43:11Z) - Incentive-Theoretic Bayesian Inference for Collaborative Science [59.15962177829337]
未知のパラメータについて、プライベートな先行エージェントが存在する場合の仮説テストについて検討する。
エージェントの戦略行動によって明らかにされる情報を活用する統計的推論を行う方法を示す。
論文 参考訳(メタデータ) (2023-07-07T17:59:01Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Control-Aware Prediction Objectives for Autonomous Driving [78.19515972466063]
本研究では,制御に対する予測の下流効果を評価するための制御認識予測目標(CAPOs)を提案する。
本稿では,エージェント間の注意モデルを用いた重み付けと,予測軌跡を接地真実軌跡に交換する際の制御変動に基づく重み付けの2つの方法を提案する。
論文 参考訳(メタデータ) (2022-04-28T07:37:21Z) - Causal Strategic Linear Regression [5.672132510411465]
信用スコアや学術試験のような多くの予測的な意思決定シナリオでは、意思決定者は、決定ルールを「ゲーム」するためにエージェントの正当性を説明するモデルを構築しなければならない。
私たちは、変更可能な属性の関数として、モデリングエージェントの結果の同時処理に参加します。
3つの異なる意思決定目標を最適化する意思決定ルールを学習するための効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-24T03:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。