論文の概要: Demographic-Agnostic Fairness without Harm
- arxiv url: http://arxiv.org/abs/2509.24077v1
- Date: Sun, 28 Sep 2025 21:23:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.619894
- Title: Demographic-Agnostic Fairness without Harm
- Title(参考訳): ハームのないデモグラフィック非依存フェアネス
- Authors: Zhongteng Cai, Mohammad Mahdi Khalili, Xueru Zhang,
- Abstract要約: 機械学習アルゴリズムは、社会的ドメインにおいて、人間について予測するためにますます使われている。
これらのアルゴリズムが特定の社会集団に対する偏見を示すのではないかという懸念が高まっている。
本研究では, 調和最適化アルゴリズムを使わずに, 新たなテクスタイトデデマトグラフィー・アノスティックフェアネスを提案する。
- 参考スコア(独自算出の注目度): 15.171262544838337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning (ML) algorithms are increasingly used in social domains to make predictions about humans, there is a growing concern that these algorithms may exhibit biases against certain social groups. Numerous notions of fairness have been proposed in the literature to measure the unfairness of ML. Among them, one class that receives the most attention is \textit{parity-based}, i.e., achieving fairness by equalizing treatment or outcomes for different social groups. However, achieving parity-based fairness often comes at the cost of lowering model accuracy and is undesirable for many high-stakes domains like healthcare. To avoid inferior accuracy, a line of research focuses on \textit{preference-based} fairness, under which any group of individuals would experience the highest accuracy and collectively prefer the ML outcomes assigned to them if they were given the choice between various sets of outcomes. However, these works assume individual demographic information is known and fully accessible during training. In this paper, we relax this requirement and propose a novel \textit{demographic-agnostic fairness without harm (DAFH)} optimization algorithm, which jointly learns a group classifier that partitions the population into multiple groups and a set of decoupled classifiers associated with these groups. Theoretically, we conduct sample complexity analysis and show that our method can outperform the baselines when demographic information is known and used to train decoupled classifiers. Experiments on both synthetic and real data validate the proposed method.
- Abstract(参考訳): 機械学習(ML)アルゴリズムが社会ドメインで人間の予測にますます使われているため、これらのアルゴリズムが特定の社会グループに対する偏見を示すのではないかという懸念が高まっている。
MLの不公平性を測定するために、多くの公正性の概念が文献で提案されている。
その中で最も注目を集めているのが「textit{parity-based}」、すなわち、異なる社会集団に対する治療や結果の平等化によって公正を達成するクラスである。
しかし、公平性に基づくフェアネスを達成するには、モデルの精度を下げるコストがかかることが多く、医療のような多くの高額なドメインでは望ましくない。
劣悪な精度を避けるために、研究の行は「textit{preference-based} fairness」に焦点を当てている。
しかし、これらの研究は、個々の人口統計情報が訓練中に知られ、完全にアクセス可能であることを前提としている。
本稿では,この要求を緩和し,集団を複数のグループに分割するグループ分類器と,それらのグループに関連付けられた分離された分類器の集合を共同で学習する,新しいDAFH最適化アルゴリズムを提案する。
理論的には、サンプル複雑性解析を行い、人口統計情報が知られ、非結合型分類器の訓練に使用される場合に、本手法がベースラインより優れていることを示す。
合成データと実データの両方の実験により提案手法が検証された。
関連論文リスト
- Fairness without Demographics through Learning Graph of Gradients [22.260763111752805]
勾配と群間の相関がグループフェアネスの同定と改善に役立つことを示す。
提案手法はノイズに対して頑健であり,全体の精度を過度に低下させることなく,公平性を著しく向上させることができる。
論文 参考訳(メタデータ) (2024-12-04T20:35:50Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。