論文の概要: Performative Risk Control: Calibrating Models for Reliable Deployment under Performativity
- arxiv url: http://arxiv.org/abs/2505.24097v1
- Date: Fri, 30 May 2025 00:59:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.714757
- Title: Performative Risk Control: Calibrating Models for Reliable Deployment under Performativity
- Title(参考訳): 適応的リスクコントロール: 適応性の下での信頼性デプロイメントのためのキャリブレーションモデル
- Authors: Victor Li, Baiting Chen, Yuzhen Mao, Qi Lei, Zhun Deng,
- Abstract要約: リスク管理を達成するために機械学習モデルを校正することは、信頼性の高い意思決定を保証するために不可欠である。
本稿では, リスク管理を行うためのモデルキャリブレーションフレームワークであるPerformative Risk Controlを紹介する。
- 参考スコア(独自算出の注目度): 18.09405926516524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Calibrating blackbox machine learning models to achieve risk control is crucial to ensure reliable decision-making. A rich line of literature has been studying how to calibrate a model so that its predictions satisfy explicit finite-sample statistical guarantees under a fixed, static, and unknown data-generating distribution. However, prediction-supported decisions may influence the outcome they aim to predict, a phenomenon named performativity of predictions, which is commonly seen in social science and economics. In this paper, we introduce Performative Risk Control, a framework to calibrate models to achieve risk control under performativity with provable theoretical guarantees. Specifically, we provide an iteratively refined calibration process, where we ensure the predictions are improved and risk-controlled throughout the process. We also study different types of risk measures and choices of tail bounds. Lastly, we demonstrate the effectiveness of our framework by numerical experiments on the task of predicting credit default risk. To the best of our knowledge, this work is the first one to study statistically rigorous risk control under performativity, which will serve as an important safeguard against a wide range of strategic manipulation in decision-making processes.
- Abstract(参考訳): リスク管理を達成するためにブラックボックス機械学習モデルをキャリブレーションすることは、信頼性の高い意思決定を保証するために不可欠である。
リッチラインの文献は、固定された、静的で未知のデータ生成分布の下で、その予測が明示的な有限サンプル統計保証を満たすようにモデルをキャリブレーションする方法を研究してきた。
しかしながら、予測支援された決定は、予測を意図した結果、すなわち予測の実行性と呼ばれる現象に影響を及ぼす可能性がある。
本稿では,実証可能な理論的保証を伴って,能動性の下でのリスク制御を実現するためのモデル校正フレームワークであるPerformative Risk Controlを紹介する。
具体的には、繰り返し改良されたキャリブレーションプロセスを提供し、このプロセスを通して予測が改善され、リスクが制御されるようにします。
また、さまざまな種類のリスク対策やテールバウンドの選択についても検討する。
最後に,信用デフォルトリスクの予測における数値実験による枠組みの有効性を示す。
我々の知る限り、この研究は、統計的に厳格なリスクコントロールをパフォーマンス性の下で研究する最初のものであり、意思決定プロセスにおける幅広い戦略的操作に対する重要な保護となるでしょう。
関連論文リスト
- Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Data-Adaptive Tradeoffs among Multiple Risks in Distribution-Free Prediction [55.77015419028725]
しきい値とトレードオフパラメータが適応的に選択された場合、リスクの有効な制御を可能にする手法を開発する。
提案手法は単調なリスクとほぼ単調なリスクをサポートするが,それ以外は分布的な仮定はしない。
論文 参考訳(メタデータ) (2024-03-28T17:28:06Z) - On the Impact of Uncertainty and Calibration on Likelihood-Ratio Membership Inference Attacks [42.18575921329484]
我々は,情報理論の枠組みにおける可能性比攻撃(LiRA)の性能を解析する。
我々は、MIAの有効性に対する不確実性と校正の影響についての洞察を提供することを目的として、MIA敵の利点に基づいて境界を導出する。
論文 参考訳(メタデータ) (2024-02-16T13:41:18Z) - Distribution-free risk assessment of regression-based machine learning
algorithms [6.507711025292814]
我々は回帰アルゴリズムとモデル予測の周囲に定義された区間内に存在する真のラベルの確率を計算するリスク評価タスクに焦点をあてる。
そこで,本研究では,正のラベルを所定の確率で含むことが保証される予測区間を提供する共形予測手法を用いてリスク評価問題を解決する。
論文 参考訳(メタデータ) (2023-10-05T13:57:24Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Learn then Test: Calibrating Predictive Algorithms to Achieve Risk
Control [67.52000805944924]
Learn then Test (LTT)は、機械学習モデルを校正するフレームワークである。
私たちの主な洞察は、リスクコントロール問題を複数の仮説テストとして再設計することです。
我々は、コンピュータビジョンの詳細な実例を用いて、コア機械学習タスクの新しいキャリブレーション手法を提供するために、我々のフレームワークを使用します。
論文 参考訳(メタデータ) (2021-10-03T17:42:03Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。