論文の概要: Bounding and Approximating Intersectional Fairness through Marginal
Fairness
- arxiv url: http://arxiv.org/abs/2206.05828v2
- Date: Fri, 23 Jun 2023 12:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 01:17:09.777214
- Title: Bounding and Approximating Intersectional Fairness through Marginal
Fairness
- Title(参考訳): マージナルフェアネスによる節間フェアネスの境界と近似
- Authors: Mathieu Molina, Patrick Loiseau
- Abstract要約: 機械学習における差別は、しばしば複数の次元に沿って生じる。
すなわち、どの部分群も差別されないことを保証することが望ましい。
- 参考スコア(独自算出の注目度): 7.954748673441148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrimination in machine learning often arises along multiple dimensions
(a.k.a. protected attributes); it is then desirable to ensure
\emph{intersectional fairness} -- i.e., that no subgroup is discriminated
against. It is known that ensuring \emph{marginal fairness} for every dimension
independently is not sufficient in general. Due to the exponential number of
subgroups, however, directly measuring intersectional fairness from data is
impossible. In this paper, our primary goal is to understand in detail the
relationship between marginal and intersectional fairness through statistical
analysis. We first identify a set of sufficient conditions under which an exact
relationship can be obtained. Then, we prove bounds (easily computable through
marginal fairness and other meaningful statistical quantities) in
high-probability on intersectional fairness in the general case. Beyond their
descriptive value, we show that these theoretical bounds can be leveraged to
derive a heuristic improving the approximation and bounds of intersectional
fairness by choosing, in a relevant manner, protected attributes for which we
describe intersectional subgroups. Finally, we test the performance of our
approximations and bounds on real and synthetic data-sets.
- Abstract(参考訳): マシンラーニングにおける差別は、多くの場合、複数の次元(すなわち保護された属性)に沿って発生する。
独立にすべての次元に対する \emph{marginal fairness} の保証は一般には不十分であることが知られている。
しかし、指数関数的な部分群の数のため、データからの交叉フェアネスを直接測定することは不可能である。
本稿では,辺縁と交叉フェアネスの関係を統計解析によって詳細に理解することを目的とする。
まず、正確な関係が得られる十分条件のセットを同定する。
すると、一般の場合の交叉フェアネスに高い確率で有界(端値等有意な統計量により容易に計算できる)を証明できる。
それらの記述値の他に、これらの理論的境界は、交叉部分群を記述する保護属性を選択することで、交叉フェアネスの近似と有界性を改善するヒューリスティックを導出するために活用できることを示す。
最後に,実データと合成データセットの近似と境界の性能を検証した。
関連論文リスト
- Intrinsic Fairness-Accuracy Tradeoffs under Equalized Odds [8.471466670802817]
等化確率の統計的概念の下で、公正性と精度のトレードオフについて検討する。
フェアネス予算の関数として, 精度の新たな上限を提示する。
以上の結果から,低バイアス群に対する高い精度の達成は,グループ間の統計的格差に基づいて根本的に制限される可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-12T23:15:21Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Intersectional Fairness: A Fractal Approach [0.0]
幾何学的設定における交叉フェアネスの問題について考察する。
数学的には、公平さはレベルを"ダウン"するわけではないが、レベルを"アップ"する。
公平性は比喩的に「フラクタル」問題と考えることができる。
論文 参考訳(メタデータ) (2023-02-24T15:15:32Z) - The Possibility of Fairness: Revisiting the Impossibility Theorem in
Practice [5.175941513195566]
非互換な公正性制約を満たすようなモデルの大規模な集合を同定することは可能であることを示す。
私たちは、実践者が、いつ、そして、どのようにして、複数の基準に沿った公平性を達成できるかを理解するためのツールとガイダンスを提供します。
論文 参考訳(メタデータ) (2023-02-13T13:29:24Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators [52.17542855760418]
本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
論文 参考訳(メタデータ) (2022-10-05T11:08:04Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。