論文の概要: Testing Fairness with Utility Tradeoffs: A Wasserstein Projection Approach
- arxiv url: http://arxiv.org/abs/2505.11678v3
- Date: Wed, 24 Sep 2025 12:20:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 16:23:42.209323
- Title: Testing Fairness with Utility Tradeoffs: A Wasserstein Projection Approach
- Title(参考訳): ユーティリティトレードオフによるフェアネスのテスト - Wassersteinのプロジェクションアプローチ
- Authors: Yan Chen, Zheng Tan, Jose Blanchet, Hanzhang Qin,
- Abstract要約: 本稿では,近似的公正性と有効性を共同で評価する統計的仮説テストフレームワークを提案する。
当社のフレームワークは,人口統計学の同等性基準に基づいて構築され,潜在的成果フレームワークに動機づけられた実用性尺度が組み込まれている。
このテストは、計算可能で、解釈可能で、機械学習モデルに広く適用でき、より一般的な設定に拡張可能であることを示す。
- 参考スコア(独自算出の注目度): 6.378410364292642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness in data driven decision making has become a central concern across domains such as marketing, lending, and healthcare, but fairness constraints often come at the cost of utility. We propose a statistical hypothesis testing framework that jointly evaluates approximate fairness and utility, relaxing strict fairness requirements while ensuring that overall utility remains above a specified threshold. Our framework builds on the strong demographic parity (SDP) criterion and incorporates a utility measure motivated by the potential outcomes framework. The test statistic is constructed via Wasserstein projections, enabling auditors to assess whether observed fairness-utility tradeoffs are intrinsic to the algorithm or attributable to randomness in the data. We show that the test is computationally tractable, interpretable, broadly applicable across machine learning models, and extendable to more general settings. We apply our approach to multiple real-world datasets, offering new insights into the fairness-utility tradeoff through the perspective of statistical hypothesis testing.
- Abstract(参考訳): データ駆動意思決定における公正性の確保は、マーケティング、融資、医療といった分野において中心的な関心事となっているが、公正性の制約はしばしばユーティリティーのコストによってもたらされる。
本研究では, 有効性と有効性を両立させつつ, 厳密な公正性要件を緩和し, 有効性が一定の閾値を超えることを保証する統計的仮説テストフレームワークを提案する。
当社のフレームワークは,SDP(Song population parity)基準に基づいて構築され,潜在的成果フレームワークに動機づけられた実用的指標が組み込まれている。
テスト統計はワッサースタイン予想を用いて構築され、観測された公正効用トレードオフがアルゴリズムに固有のものであるか、データのランダム性に起因するかを評価することができる。
このテストは、計算可能で、解釈可能で、機械学習モデルに広く適用でき、より一般的な設定に拡張可能であることを示す。
我々は、複数の実世界のデータセットにアプローチを適用し、統計的仮説テストの観点から、フェアネスとユーティリティのトレードオフに関する新たな洞察を提供する。
関連論文リスト
- Fair Bayesian Data Selection via Generalized Discrepancy Measures [11.013077130984973]
モデルパラメータとサンプル重みの群固有の後続分布を共有中心分布と整合させることにより、公平性を確保するデータ選択フレームワークを提案する。
我々のフレームワークは、ワッサーシュタイン距離、平均誤差の最大値、および$f$-divergenceなど、様々な分布差によるフレキシブルアライメントをサポートしている。
ベンチマークデータセットを用いた実験の結果,提案手法は既存のデータ選択法やモデルベースフェアネス法を公平性と精度で一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2025-11-10T12:28:04Z) - Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - Beyond Internal Data: Bounding and Estimating Fairness from Incomplete Data [26.037607208689977]
貸付、雇用、医療といった高度な領域では、AIシステムの公平性を保証することが重要である。
業界設定では、法とプライバシーに関する懸念は、集団格差を評価するために必要な人口統計データの収集を制限する。
我々の研究は、そのような利用可能な別のデータを活用して、完全なデータがアクセスできないときにモデルフェアネスを見積もることを目指している。
論文 参考訳(メタデータ) (2025-08-18T15:57:30Z) - Beyond Internal Data: Constructing Complete Datasets for Fairness Testing [26.037607208689977]
この研究は、人口統計を含む完全なデータセットがアクセスできない場合に、分類器の公平性を評価することに重点を置いている。
人口統計情報を含む完全合成データを構築するために,異なる重なり合うデータセットを活用することを提案する。
合成データの忠実度を実データと比較することにより検証し、そのような合成データ上でのテストから得られた公正度指標が実データから得られたものと一致していることを実証的に示す。
論文 参考訳(メタデータ) (2025-07-24T16:35:42Z) - Understanding challenges to the interpretation of disaggregated evaluations of algorithmic fairness [49.35494016290887]
関係する人口を表わすが、実世界の格差を反映するデータである場合、サブグループ間での平等なパフォーマンスは、信頼できない公平さの尺度であることを示す。
本フレームワークでは, 因果関係の明示的な仮定と分析を相補して, 相反や分布変化の制御を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:40:31Z) - Algorithmic Tradeoffs in Fair Lending: Profitability, Compliance, and Long-Term Impact [0.0]
公平な介入が利益率とデフォルトレートにどのように影響するかを定量化します。
我々は、公正貸付が利益を得る特定の経済状況を特定する。
これらの知見は、倫理的配慮とビジネス目的とのバランスをとる貸付アルゴリズムを設計するための実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2025-05-08T19:18:33Z) - Fairness-aware organ exchange and kidney paired donation [10.277630436997365]
KPDプログラムは、腎臓移植における非互換性の課題を克服するための革新的な解決策を提供する。
不平等な移植機会に対処するためには、グループフェアネスと個人フェアネスという2つの広く使われているフェアネス基準がある。
機械学習の校正原理に触発されて、我々は新しいフェアネス基準を導入する: 一致した結果が保護された特徴から条件的に独立していなければならない。
論文 参考訳(メタデータ) (2025-03-09T04:01:08Z) - Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - The Unfairness of $\varepsilon$-Fairness [0.0]
我々は、$varepsilon$-fairnessという概念が採用されれば、現実世界の文脈で最大に不公平な結果をもたらす可能性があることを示した。
本研究は,大学入学と信用リスク評価の2つの実例を用いて実施した。
論文 参考訳(メタデータ) (2024-05-15T14:13:35Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Fair and Robust Estimation of Heterogeneous Treatment Effects for Policy
Learning [2.356908851188234]
我々は、この枠組みを用いて、最適政策によって達成可能な公平性と最大福祉との間のトレードオフを特徴づける。
本研究は,シミュレーション研究における手法の評価と実世界のケーススタディにおける手法の解説である。
論文 参考訳(メタデータ) (2023-06-06T12:22:20Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Group Fairness in Prediction-Based Decision Making: From Moral
Assessment to Implementation [0.0]
与えられた文脈における公平さの意味の道徳的評価のための枠組みを導入する。
評価結果を、確立された統計的グループフェアネス基準にマッピングする。
我々は、FECの原則を拡張して、すべての種類のグループフェアネス基準をカバーします。
論文 参考訳(メタデータ) (2022-10-19T10:44:21Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。