論文の概要: Machine Learning with Multitype Protected Attributes: Intersectional Fairness through Regularisation
- arxiv url: http://arxiv.org/abs/2509.08163v1
- Date: Tue, 09 Sep 2025 21:48:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 17:24:19.824536
- Title: Machine Learning with Multitype Protected Attributes: Intersectional Fairness through Regularisation
- Title(参考訳): マルチタイプ保護属性を用いた機械学習:正規化による区間フェアネス
- Authors: Ho Ming Lee, Katrien Antonio, Benjamin Avanzi, Lorenzo Marchi, Rui Zhou,
- Abstract要約: いくつかの属性にまたがるフェアネスを狙う手法は、しばしばいわゆるフェアネス・ジェリーマンダー(fairness gerrymandering)を見落としている。
本稿では,モデル予測と保護属性の関係を緩和する距離共分散規則化フレームワークを提案する。
当社の枠組みは,CompASレシビズムデータセットと大規模自動車保険請求データセットに適用する。
- 参考スコア(独自算出の注目度): 5.205684307576097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring equitable treatment (fairness) across protected attributes (such as gender or ethnicity) is a critical issue in machine learning. Most existing literature focuses on binary classification, but achieving fairness in regression tasks-such as insurance pricing or hiring score assessments-is equally important. Moreover, anti-discrimination laws also apply to continuous attributes, such as age, for which many existing methods are not applicable. In practice, multiple protected attributes can exist simultaneously; however, methods targeting fairness across several attributes often overlook so-called "fairness gerrymandering", thereby ignoring disparities among intersectional subgroups (e.g., African-American women or Hispanic men). In this paper, we propose a distance covariance regularisation framework that mitigates the association between model predictions and protected attributes, in line with the fairness definition of demographic parity, and that captures both linear and nonlinear dependencies. To enhance applicability in the presence of multiple protected attributes, we extend our framework by incorporating two multivariate dependence measures based on distance covariance: the previously proposed joint distance covariance (JdCov) and our novel concatenated distance covariance (CCdCov), which effectively address fairness gerrymandering in both regression and classification tasks involving protected attributes of various types. We discuss and illustrate how to calibrate regularisation strength, including a method based on Jensen-Shannon divergence, which quantifies dissimilarities in prediction distributions across groups. We apply our framework to the COMPAS recidivism dataset and a large motor insurance claims dataset.
- Abstract(参考訳): 保護された属性(性別や民族など)間で公平な待遇(公正さ)を確保することは、機械学習において重要な問題である。
既存の文献の多くは二項分類に重点を置いているが、保険料や雇用スコア評価等、回帰作業の公平性は等しく重要である。
さらに、反差別法は、多くの既存の方法が適用されない年齢などの連続的な属性にも適用される。
実際には、複数の保護された属性が同時に存在するが、いくつかの属性にまたがるフェアネスを目標とする手法は、しばしばいわゆる「フェアネス・ジェリーマンダリング」を見落とし、それゆえ、交差するサブグループ(例えば、アフリカ系アメリカ人の女性やヒスパニック系の男性)間の格差を無視している。
本稿では,モデル予測と保護属性の関連性を緩和する距離共分散規則化フレームワークを提案する。
複数の保護属性の存在下で適用性を高めるために,従来提案されていた関節距離共分散(JdCov)と新しい結合距離共分散(CCdCov)という2つの距離共分散に基づく多変量依存尺度を組み込むことにより,その枠組みを拡張した。
本稿では,Jensen-Shannon分散に基づく手法を含む正規化強度のキャリブレーションについて論じる。
当社の枠組みは,CompASレシビズムデータセットと大規模自動車保険請求データセットに適用する。
関連論文リスト
- Intersectional Divergence: Measuring Fairness in Regression [21.34290540936501]
回帰タスクにおける交叉公正度を測定するための新しい手法を提案する。
不均衡な領域の選好を考慮せずに、グループの平均誤差を測るには不十分である。
IDを損失関数、IDLossに適合させる方法を示し、収束保証を満足し、スムーズな性質を持つ。
論文 参考訳(メタデータ) (2025-05-01T19:43:12Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to Extend Fairness-Aware Binary Classification [0.14732811715354452]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。