論文の概要: Operationalizing Fairness: Post-Hoc Threshold Optimization Under Hard Resource Limits
- arxiv url: http://arxiv.org/abs/2602.22560v1
- Date: Thu, 26 Feb 2026 02:56:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.499063
- Title: Operationalizing Fairness: Post-Hoc Threshold Optimization Under Hard Resource Limits
- Title(参考訳): 運用の公正性 - ハードリソース制限下でのホック後の閾値最適化
- Authors: Moirangthem Tiken Singh, Amit Kalita, Sapam Jitu Singh,
- Abstract要約: 機械学習のハイテイク領域への展開には、予測安全性とアルゴリズムフェアネスのバランスが必要である。
厳密かつ厳しい容量制約の下で、安全バランス、効率、および株式を共同で確保する、ポストホックでモデルに依存しないしきい値最適化フレームワークを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deployment of machine learning in high-stakes domains requires a balance between predictive safety and algorithmic fairness. However, existing fairness interventions often as- sume unconstrained resources and employ group-specific decision thresholds that violate anti- discrimination regulations. We introduce a post-hoc, model-agnostic threshold optimization framework that jointly balances safety, efficiency, and equity under strict and hard capacity constraints. To ensure legal compliance, the framework enforces a single, global decision thresh- old. We formulated a parameterized ethical loss function coupled with a bounded decision rule that mathematically prevents intervention volumes from exceeding the available resources. An- alytically, we prove the key properties of the deployed threshold, including local monotonicity with respect to ethical weighting and the formal identification of critical capacity regimes. We conducted extensive experimental evaluations on diverse high-stakes datasets. The principal re- sults demonstrate that capacity constraints dominate ethical priorities; the strict resource limit determines the final deployed threshold in over 80% of the tested configurations. Furthermore, under a restrictive 25% capacity limit, the proposed framework successfully maintains high risk identification (recall ranging from 0.409 to 0.702), whereas standard unconstrained fairness heuristics collapse to a near-zero utility. We conclude that theoretical fairness objectives must be explicitly subordinated to operational capacity limits to remain in deployment. By decou- pling predictive scoring from policy evaluation and strictly bounding intervention rates, this framework provides a practical and legally compliant mechanism for stakeholders to navigate unavoidable ethical trade-offs in resource-constrained environments.
- Abstract(参考訳): 機械学習のハイテイク領域への展開には、予測安全性とアルゴリズムフェアネスのバランスが必要である。
しかし、既存の公正な介入は、しばしば制限されていないリソースを和らげ、反差別規制に違反しているグループ固有の決定しきい値を採用する。
我々は、厳格かつ厳しい容量制約の下で安全性、効率、株式のバランスをとる、ポストホックでモデルに依存しないしきい値最適化フレームワークを導入する。
法的コンプライアンスを確保するために、このフレームワークは、単一のグローバルな決定を厳格に強制する。
パラメータ化された倫理的損失関数と、数学的に介入量が利用可能な資源を超えるのを防ぐ境界決定規則を結合して定式化した。
分析的に、倫理的重み付けに関する局所的な単調性や臨界能力体制の形式的識別など、展開されたしきい値の重要な性質を実証する。
我々は多種多様なハイテイクデータセットについて広範な実験評価を行った。
厳格なリソース制限は、テストされた構成の80%以上において、最終的なデプロイしきい値を決定する。
さらに、25%のキャパシティ制限の下で、提案フレームワークは高いリスク識別(0.409から0.702)を維持するのに成功し、一方、標準の制約のないフェアネスヒューリスティックスは、ほぼゼロのユーティリティに崩壊する。
理論的公正性の目的は、展開に留まるためには、運用能力制限に明示的に従わなければならないと結論付けます。
この枠組みは、政策評価からの予測スコアと厳格に拘束された介入率から切り離すことによって、利害関係者がリソース制約のある環境で避けられない倫理的トレードオフをナビゲートするための実践的で法的に準拠するメカニズムを提供する。
関連論文リスト
- Adaptive Neighborhood-Constrained Q Learning for Offline Reinforcement Learning [52.03884701766989]
オフライン強化学習(RL)アルゴリズムは、通常、アクション選択に制約を課す。
本稿では,Bellmanターゲットにおける行動選択を,データセットアクションの近傍の結合に制限する新しい地区制約を提案する。
我々は,この制約を満たす目標動作を用いてQ学習を行うための,単純で効果的なアルゴリズムであるAdaptive Neighborhood-Constrained Q Learning(ANQ)を開発した。
論文 参考訳(メタデータ) (2025-11-04T13:42:05Z) - A General Incentives-Based Framework for Fairness in Multi-agent Resource Allocation [4.930376365020355]
GIFF(General Incentives-based Framework for Fairness)を紹介する。
GIFFは、標準値関数から公平な意思決定を推測する、公平なマルチエージェントリソース割り当てのための新しいアプローチである。
論文 参考訳(メタデータ) (2025-10-30T17:37:51Z) - Risk-Averse Constrained Reinforcement Learning with Optimized Certainty Equivalents [29.698100324454362]
制約付き最適化は強化学習(RL)における競合する目的を扱う共通のフレームワークを提供する
本稿では,最適化された確実性等価量(OCE)を用いて,報酬値と時間とともにステージごとの特性を示すリスク対応制約付きRLの枠組みを提案する。
本フレームワークは,パラメータ化された強ラグランジアン双対性フレームワークにおいて,適切な制約条件下での元の制約問題と正確に一致することを保証している。
論文 参考訳(メタデータ) (2025-10-23T04:33:32Z) - Rectified Robust Policy Optimization for Model-Uncertain Constrained Reinforcement Learning without Strong Duality [53.525547349715595]
我々はRectified Robust Policy Optimization (RRPO) と呼ばれる新しいプライマリのみのアルゴリズムを提案する。
RRPOは双対の定式化に頼ることなく、主問題に直接作用する。
我々は、最もよく知られた下界と一致する複雑性を持つ、ほぼ最適な実現可能なポリシーに収束することを示す。
論文 参考訳(メタデータ) (2025-08-24T16:59:38Z) - Constrained Online Decision-Making: A Unified Framework [14.465944215100746]
本稿では,段階的実現可能性制約による逐次意思決定の一般的な定式化について検討する。
本稿では,既存の制約付き学習問題を抽出する統一的なアルゴリズムフレームワークを提案する。
この結果は、理論と実践の両方において、制約付きシーケンシャルな意思決定のための原則化された基盤を提供する。
論文 参考訳(メタデータ) (2025-05-11T19:22:04Z) - Resilient Constrained Reinforcement Learning [87.4374430686956]
本稿では,複数の制約仕様を事前に特定しない制約付き強化学習(RL)のクラスについて検討する。
報酬訓練目標と制約満足度との間に不明確なトレードオフがあるため、適切な制約仕様を特定することは困難である。
我々は、ポリシーと制約仕様を一緒に検索する新しい制約付きRLアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:28:23Z) - Group Fairness with Uncertainty in Sensitive Attributes [34.608332397776245]
公正な予測モデルは、ハイテイクなアプリケーションにおける少数派グループに対する偏見のある決定を緩和するために不可欠である。
本稿では, 感度特性の不確実性にも拘わらず, フェアネスの目標レベルを達成するブートストラップに基づくアルゴリズムを提案する。
本アルゴリズムは離散的属性と連続的属性の両方に適用可能であり,実世界の分類や回帰作業に有効である。
論文 参考訳(メタデータ) (2023-02-16T04:33:00Z) - On Lower Bounds for Standard and Robust Gaussian Process Bandit
Optimization [55.937424268654645]
有界ノルムを持つ関数のブラックボックス最適化問題に対するアルゴリズム非依存な下界を考える。
本稿では, 単純さ, 汎用性, エラー確率への依存性の向上など, 後悔の下位境界を導出するための新しい証明手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T03:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。