論文の概要: The Statistical Fairness-Accuracy Frontier
- arxiv url: http://arxiv.org/abs/2508.17622v1
- Date: Mon, 25 Aug 2025 03:01:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.61285
- Title: The Statistical Fairness-Accuracy Frontier
- Title(参考訳): 統計的公正-精度フロンティア
- Authors: Alireza Fallah, Michael I. Jordan, Annie Ulichney,
- Abstract要約: 機械学習モデルは正確性と公平さのバランスをとる必要があるが、これらの目標はしばしば矛盾する。
このトレードオフを理解するための有用なツールとしてフェアネス・精度フロンティアがあり、フェアネスと精度の両方で同時に改善できないモデルの集合を特徴付ける。
本研究では, 有限サンプル体制におけるFAフロンティアについて検討し, 人口の減少と, 最悪のケースギャップの定量化について検討した。
- 参考スコア(独自算出の注目度): 50.323024516295725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models must balance accuracy and fairness, but these goals often conflict, particularly when data come from multiple demographic groups. A useful tool for understanding this trade-off is the fairness-accuracy (FA) frontier, which characterizes the set of models that cannot be simultaneously improved in both fairness and accuracy. Prior analyses of the FA frontier provide a full characterization under the assumption of complete knowledge of population distributions -- an unrealistic ideal. We study the FA frontier in the finite-sample regime, showing how it deviates from its population counterpart and quantifying the worst-case gap between them. In particular, we derive minimax-optimal estimators that depend on the designer's knowledge of the covariate distribution. For each estimator, we characterize how finite-sample effects asymmetrically impact each group's risk, and identify optimal sample allocation strategies. Our results transform the FA frontier from a theoretical construct into a practical tool for policymakers and practitioners who must often design algorithms with limited data.
- Abstract(参考訳): 機械学習モデルは正確性と公平性のバランスをとる必要があるが、これらの目標はしばしば矛盾する。
このトレードオフを理解するための有用なツールとして、フェアネス・正確性(FA)フロンティアがあり、フェアネスと精度の両方で同時に改善できないモデルのセットを特徴付ける。
FAフロンティアの以前の分析は、人口分布の完全な知識(非現実的な理想)を前提として、完全な特徴づけを提供する。
本研究では, 有限サンプル体制におけるFAフロンティアについて検討し, 人口の減少と, 最悪のケースギャップの定量化について検討した。
特に、共変量分布のデザイナの知識に依存するミニマックス最適推定器を導出する。
各推定器について、有限サンプル効果が各グループのリスクに不対称にどう影響するかを特徴付け、最適なサンプル割り当て戦略を特定する。
我々の結果は、FAフロンティアを理論的な構造から、限られたデータでアルゴリズムを設計しなければならない政策立案者や実践者のための実践的なツールに変える。
関連論文リスト
- Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - Judging with Confidence: Calibrating Autoraters to Preference Distributions [56.17041629492863]
信頼性の高いオートラッターは、対象の個体群によって定義される嗜好の完全な分布をモデル化することを学ぶ必要がある、と我々は主張する。
異なるデータ条件に合わせた2つの学習方法を提案する。
この結果から, 分布マッチング目的の微調整オートレーダは, 目的の好み分布に整合した有言確率予測を導出することがわかった。
論文 参考訳(メタデータ) (2025-09-30T20:36:41Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency [1.124958340749622]
学習過程に公平度を組み込んだMARSに基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
論文 参考訳(メタデータ) (2024-02-23T19:02:24Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - To the Fairness Frontier and Beyond: Identifying, Quantifying, and
Optimizing the Fairness-Accuracy Pareto Frontier [1.5293427903448022]
アルゴリズムフェアネスは、機械学習を用いて高い社会的決定を行う際に重要な考慮事項として現れてきた。
しかし、改善された公正さは、しばしばモデルの正確さを犠牲にする。
フェアネス・正確性トレードオフの実証的パレートフロンティアを特定し、定量化し、最適化することを模索する。
論文 参考訳(メタデータ) (2022-05-31T19:35:53Z) - Metrizing Fairness [5.323439381187456]
本研究では,2つの集団集団の個人に有意な影響を及ぼす教師付き学習問題について検討した。
我々は、統計パリティ(SP)のような群フェアネス基準に関して公正な予測子を求める。
本稿では,厳密なSP制約が保証される条件を特定し,予測精度を向上させる。
論文 参考訳(メタデータ) (2022-05-30T12:28:10Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Entropy-based adaptive design for contour finding and estimating
reliability [0.24466725954625884]
信頼性解析において、故障確率を推定するために用いられる手法は、しばしばモデル評価に関連するコストによって制限される。
本稿では,MFISと組み合わせることで,より正確な故障確率推定を行うエントロピーに基づくGP適応設計を提案する。
ベンチマークデータに加え、NASA(NASA)宇宙服の衝撃損傷シミュレーターへの応用例も紹介されている。
論文 参考訳(メタデータ) (2021-05-24T15:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。