論文の概要: Doubly-Regressing Approach for Subgroup Fairness
- arxiv url: http://arxiv.org/abs/2510.21091v1
- Date: Fri, 24 Oct 2025 02:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.357587
- Title: Doubly-Regressing Approach for Subgroup Fairness
- Title(参考訳): 部分群フェアネスに対する二重回帰アプローチ
- Authors: Kyungseon Lee, Kunwoong Kim, Jihu Lee, Dongyoon Yang, Yongdai Kim,
- Abstract要約: 敏感な属性の数が増えると、サブグループの数が増加する。
これにより、計算上の重荷とデータ空間の問題が発生する。
サブグループフェアネスのための新しい学習アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 14.327714719028924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness is a socially crucial topic in real-world applications of AI. Among many notions of fairness, subgroup fairness is widely studied when multiple sensitive attributes (e.g., gender, race, age) are present. However, as the number of sensitive attributes grows, the number of subgroups increases accordingly, creating heavy computational burdens and data sparsity problem (subgroups with too small sizes). In this paper, we develop a novel learning algorithm for subgroup fairness which resolves these issues by focusing on subgroups with sufficient sample sizes as well as marginal fairness (fairness for each sensitive attribute). To this end, we formalize a notion of subgroup-subset fairness and introduce a corresponding distributional fairness measure called the supremum Integral Probability Metric (supIPM). Building on this formulation, we propose the Doubly Regressing Adversarial learning for subgroup Fairness (DRAF) algorithm, which reduces a surrogate fairness gap for supIPM with much less computation than directly reducing supIPM. Theoretically, we prove that the proposed surrogate fairness gap is an upper bound of supIPM. Empirically, we show that the DRAF algorithm outperforms baseline methods in benchmark datasets, specifically when the number of sensitive attributes is large so that many subgroups are very small.
- Abstract(参考訳): アルゴリズムフェアネスは、AIの現実の応用において社会的に重要なトピックである。
フェアネスの多くの概念の中で、複数のセンシティブな属性(例えば、性別、人種、年齢)が存在する場合、サブグループフェアネスが広く研究される。
しかし、敏感な属性の数が増えるにつれて、それに従ってサブグループの数が増加し、計算上の重荷やデータ空間の問題(小さすぎるサブグループ)が発生する。
本稿では, サンプルサイズが十分である部分群と, 限界値(各感度属性に対するフェアネス)に着目して, これらの課題を解決するための, サブグループフェアネスのための新しい学習アルゴリズムを開発する。
この目的のために、サブグループ・サブセットフェアネスの概念を定式化し、supIPM(supremum Integral Probability Metric)と呼ばれる分布フェアネス尺度を導入する。
この定式化に基づいて,サブグループフェアネス(DRAF)アルゴリズムの2次回帰適応学習を提案し,supIPMのサロゲートフェアネスギャップを,supIPMを直接削減するよりもはるかに少ない計算で低減する。
理論的には、提案した代理フェアネスギャップがsupIPMの上界であることを証明している。
実験により、DRAFアルゴリズムはベンチマークデータセットのベースライン手法よりも優れており、特に感度属性の数が多ければ、多くのサブグループが非常に小さくなることを示す。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Feature Importance Disparities for Data Bias Investigations [2.184775414778289]
分類器における下流バイアスの1つの原因は、トレーニングデータに存在するバイアスであると広く考えられている。
保護された機能と保護されていない機能からなるデータセットの$X$、結果の$y$、および$X$の$y$を予測するregressor $h$を示す。
機械学習コミュニティは、指数関数的に大きなサブグループクラスでさえ、大きなFID値を持つサブグループを効率的に見つけることができる。
論文 参考訳(メタデータ) (2023-03-03T04:12:04Z) - Detection of Groups with Biased Representation in Ranking [28.095668425175564]
上位ランクの項目に偏りのある群を検出する問題について検討する。
2つの異なる公正度尺度に対する効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-30T10:50:02Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Data Augmentation Imbalance For Imbalanced Attribute Classification [60.71438625139922]
本稿では,データ拡張不均衡(DAI)と呼ばれる新しい再サンプリングアルゴリズムを提案する。
我々のDAIアルゴリズムは歩行者属性のデータセットに基づいて最先端の結果を得る。
論文 参考訳(メタデータ) (2020-04-19T20:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。