論文の概要: Intersectional Divergence: Measuring Fairness in Regression
- arxiv url: http://arxiv.org/abs/2505.00830v1
- Date: Thu, 01 May 2025 19:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.817444
- Title: Intersectional Divergence: Measuring Fairness in Regression
- Title(参考訳): 節間多様性:回帰の公平さを測る
- Authors: Joe Germino, Nuno Moniz, Nitesh V. Chawla,
- Abstract要約: 区間分割(Intersectional Divergence)は回帰タスクの最初の公平度尺度である。
我々は、IDを損失関数、IDLossにどのように適合させるかを示し、最適化問題に使用する。
- 参考スコア(独自算出の注目度): 21.34290540936501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research on fairness in machine learning has been mainly framed in the context of classification tasks, leaving critical gaps in regression. In this paper, we propose a seminal approach to measure intersectional fairness in regression tasks, going beyond the focus on single protected attributes from existing work to consider combinations of all protected attributes. Furthermore, we contend that it is insufficient to measure the average error of groups without regard for imbalanced domain preferences. To this end, we propose Intersectional Divergence (ID) as the first fairness measure for regression tasks that 1) describes fair model behavior across multiple protected attributes and 2) differentiates the impact of predictions in target ranges most relevant to users. We extend our proposal demonstrating how ID can be adapted into a loss function, IDLoss, and used in optimization problems. Through an extensive experimental evaluation, we demonstrate how ID allows unique insights into model behavior and fairness, and how incorporating IDLoss into optimization can considerably improve single-attribute and intersectional model fairness while maintaining a competitive balance in predictive performance.
- Abstract(参考訳): 機械学習における公正性の研究は、主に分類タスクの文脈で行われ、回帰において重要なギャップを残している。
本稿では,回帰タスクにおける交叉公正度を測定するための基礎的アプローチを提案する。
さらに、不均衡な領域の嗜好を考慮せずに、グループの平均誤差を測定することは不十分であると主張する。
この目的のために、回帰タスクに対する最初の公平度尺度として、断面積分割(ID)を提案する。
1)複数の保護属性にまたがる公正なモデル行動を記述する。
2) ユーザにとって最も関連性の高いターゲット範囲における予測の影響を区別する。
我々は、IDを損失関数、IDLossにどのように適合させるかを示す提案を拡張し、最適化問題に使用する。
実験的な評価を通じて,IDがモデル行動と公正性に対してユニークな洞察を与え,IDLossを最適化に組み込むことで,予測性能の競争バランスを維持しつつ,単一属性と交差モデル公正性を大幅に改善できることを示す。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Mean Parity Fair Regression in RKHS [43.98593032593897]
平均パリティ(MP)フェアネスという概念の下で,公平回帰問題を考察する。
再生カーネルヒルベルト空間(RKHS)を利用してこの問題に対処する。
効率よく実装でき、解釈可能なトレードオフを提供する、対応する回帰関数を導出する。
論文 参考訳(メタデータ) (2023-02-21T02:44:50Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Fair learning with Wasserstein barycenters for non-decomposable
performance measures [8.508198765617198]
本研究は,人口順の制約下での精度の最大化が,対応する回帰問題の解法と等価であることを示す。
この結果を線形屈折法分類尺度(例えば$rm F$-score、AM測度、平衡精度など)に拡張する。
論文 参考訳(メタデータ) (2022-09-01T13:06:43Z) - Domain Adaptation with Adversarial Training on Penultimate Activations [82.9977759320565]
教師なし領域適応(Unsupervised Domain Adaptation, UDA)の重要な目的は、ラベルなし対象データに対するモデル予測の信頼性を高めることである。
我々は,この戦略が,入力画像や中間特徴に対する敵対的訓練よりも予測信頼性を高める目的と,より効率的で相関性が高いことを示す。
論文 参考訳(メタデータ) (2022-08-26T19:50:46Z) - A Two-Stage Feature Selection Approach for Robust Evaluation of
Treatment Effects in High-Dimensional Observational Data [1.4710887888397084]
我々は,OAENet(Outcome Adaptive Elastic Net)と呼ばれる新しい2段階特徴選択手法を提案する。
OAENetは、マッチング技術を用いて堅牢な因果推論決定を行うように設計されている。
シミュレーションデータに関する数値実験により、OAENetは最先端の手法を大きく上回っていることが示された。
論文 参考訳(メタデータ) (2021-11-27T02:54:30Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。