論文の概要: Intersectional Fairness: A Fractal Approach
- arxiv url: http://arxiv.org/abs/2302.12683v1
- Date: Fri, 24 Feb 2023 15:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 13:21:12.417706
- Title: Intersectional Fairness: A Fractal Approach
- Title(参考訳): 交叉的公平性:フラクタルアプローチ
- Authors: Giulio Filippi, Sara Zannone, Adriano Koshiyama
- Abstract要約: 幾何学的設定における交叉フェアネスの問題について考察する。
数学的には、公平さはレベルを"ダウン"するわけではないが、レベルを"アップ"する。
公平性は比喩的に「フラクタル」問題と考えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The issue of fairness in AI has received an increasing amount of attention in
recent years. The problem can be approached by looking at different protected
attributes (e.g., ethnicity, gender, etc) independently, but fairness for
individual protected attributes does not imply intersectional fairness. In this
work, we frame the problem of intersectional fairness within a geometrical
setting. We project our data onto a hypercube, and split the analysis of
fairness by levels, where each level encodes the number of protected attributes
we are intersecting over. We prove mathematically that, while fairness does not
propagate "down" the levels, it does propagate "up" the levels. This means that
ensuring fairness for all subgroups at the lowest intersectional level (e.g.,
black women, white women, black men and white men), will necessarily result in
fairness for all the above levels, including each of the protected attributes
(e.g., ethnicity and gender) taken independently. We also derive a formula
describing the variance of the set of estimated success rates on each level,
under the assumption of perfect fairness. Using this theoretical finding as a
benchmark, we define a family of metrics which capture overall intersectional
bias. Finally, we propose that fairness can be metaphorically thought of as a
"fractal" problem. In fractals, patterns at the smallest scale repeat at a
larger scale. We see from this example that tackling the problem at the lowest
possible level, in a bottom-up manner, leads to the natural emergence of fair
AI. We suggest that trustworthiness is necessarily an emergent, fractal and
relational property of the AI system.
- Abstract(参考訳): 近年,AIにおける公平性の問題に注目が集まっている。
この問題は、異なる保護属性(例えば、民族、性別など)を独立して見ることで解決できるが、個々の保護属性に対する公平さは、交差する公平さを暗示しない。
本研究では,交叉的公平性の問題を幾何学的設定の中で枠組する。
データをハイパーキューブに投影し、フェアネスの分析をレベル別に分割し、各レベルが交差する保護属性の数をエンコードします。
数学的には、公平さはレベルを"ダウン"するわけではないが、レベルを"アップ"する。
これは、最も低い交点レベルのすべてのサブグループ(黒人女性、白人女性、黒人男性、白人男性など)の公平性を保証することは、保護された属性(民族や性別など)をそれぞれ独立に取ることを含む、上記のすべてのレベルに対して公平性をもたらすことを意味する。
また、各レベルにおける推定成功率のセットのばらつきを、完全公正性の仮定で記述した公式も導出する。
この理論的な発見をベンチマークとして、全体の交叉バイアスを捉える指標の族を定義する。
最後に,公平性は「フラクタルな」問題と見なすことができることを示唆する。
フラクタルでは、最小スケールのパターンがより大きなスケールで繰り返される。
この例から、ボトムアップ的な方法で可能な限り低いレベルで問題に取り組むことは、公正なAIの自然な出現につながります。
信頼性は必然的にaiシステムの創発的でフラクタルでリレーショナルな性質であることが示唆される。
関連論文リスト
- Implementing Fairness: the view from a FairDream [0.0]
私たちはAIモデルをトレーニングし、不平等を検出して修正するために、独自の公正パッケージFairDreamを開発します。
本実験は,FairDreamの特性として,真理を条件としたフェアネスの目標を達成できることを実証した。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Counterfactual Fairness Is Basically Demographic Parity [0.0]
公正な意思決定は、倫理的に機械学習アルゴリズムを社会的設定で実装する上で重要である。
また, 対実的公正性を満たすアルゴリズムが, 人口統計学的平等を満足することを示す。
我々は、保護グループ内の個人の秩序を維持するという具体的な公正目標を定式化する。
論文 参考訳(メタデータ) (2022-08-07T23:38:59Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Bounding and Approximating Intersectional Fairness through Marginal
Fairness [7.954748673441148]
機械学習における差別は、しばしば複数の次元に沿って生じる。
すなわち、どの部分群も差別されないことを保証することが望ましい。
論文 参考訳(メタデータ) (2022-06-12T19:53:34Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。