論文の概要: Implementing Fairness: the view from a FairDream
- arxiv url: http://arxiv.org/abs/2407.14766v1
- Date: Sat, 20 Jul 2024 06:06:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-23 21:04:01.074659
- Title: Implementing Fairness: the view from a FairDream
- Title(参考訳): フェアネスを実践する - FairDreamからの視点
- Authors: Thomas Souverain, Johnathan Nguyen, Nicolas Meric, Paul Égré,
- Abstract要約: 私たちはAIモデルをトレーニングし、不平等を検出して修正するために、独自の公正パッケージFairDreamを開発します。
本実験は,FairDreamの特性として,真理を条件としたフェアネスの目標を達成できることを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an experimental investigation of the problem of AI fairness in classification. We train an AI model and develop our own fairness package FairDream to detect inequalities and then to correct for them, using income prediction as a case study. Our experiments show that it is a property of FairDream to fulfill fairness objectives which are conditional on the ground truth (Equalized Odds), even when the algorithm is set the task of equalizing positives across groups (Demographic Parity). While this may be seen as an anomaly, we explain this property by comparing our approach with a closely related fairness method (GridSearch), which can enforce Demographic Parity at the expense of Equalized Odds. We grant that a fairness metric conditioned on true labels does not give a sufficient criterion to reach fairness, but we argue that it gives us at least a necessary condition to implement Demographic Parity cautiously. We also explain why neither Equal Calibration nor Equal Precision stand as relevant fairness criteria in classification. Addressing their limitations to warn the decision-maker for any disadvantaging rate, Equalized Odds avoids the peril of strict conservatism, while keeping away the utopia of a whole redistribution of resources through algorithms.
- Abstract(参考訳): 本稿では,分類におけるAIフェアネスの問題について実験的に検討する。
私たちはAIモデルをトレーニングし、不平等を検出するために独自の公正パッケージFairDreamを開発し、その後、収入予測をケーススタディとして使用して修正します。
実験の結果,FairDreamは,アルゴリズムがグループ間で正を等化するタスク(デモグラフィパリティ)を設定された場合でも,基礎的真理(等化オッド)に条件づけられた公平性目標を満たす特性であることがわかった。
これは異常と見なされるかもしれないが、我々は我々のアプローチと密接に関連する公正度法(GridSearch)を比較して、等化オッドを犠牲にして、デモグラフィックパリティを強制できる性質を説明する。
我々は、真のラベルに条件付けされた公正度メートル法は、公正度に到達するのに十分な基準を与えていないことを許すが、少なくともデモグラフィックパリティを慎重に実施するために必要な条件を与えると論じる。
また, 等式校正や等式精度は, 分類において有意な公平性基準として位置づけられていない理由についても説明する。
いかなる不利益率についても意思決定者に警告する制限に対処するため、平等化されたオッドは厳格な保守主義の危険性を回避し、アルゴリズムを通じて資源の再分配のユートピアを排除した。
関連論文リスト
- Learning Counterfactually Fair Models via Improved Generation with Neural Causal Models [0.0]
機械学習モデルを現実世界のアプリケーションにデプロイする際の主な関心事のひとつは、公平性である。
既存のカウンターファクトフェアネスの実施方法には2つの制限があるようである。
本稿では,反現実的なサンプルを生成するためにニューラル因果モデルを提案する。
また,MMDをベースとした新たな正規化手法を提案する。
論文 参考訳(メタデータ) (2025-02-18T11:59:03Z) - What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Counterfactual Fairness Is Basically Demographic Parity [0.0]
公正な意思決定は、倫理的に機械学習アルゴリズムを社会的設定で実装する上で重要である。
また, 対実的公正性を満たすアルゴリズムが, 人口統計学的平等を満足することを示す。
我々は、保護グループ内の個人の秩序を維持するという具体的な公正目標を定式化する。
論文 参考訳(メタデータ) (2022-08-07T23:38:59Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Fair Representation: Guaranteeing Approximate Multiple Group Fairness
for Unknown Tasks [17.231251035416648]
本研究では,未知のタスクに対して公平性を保証し,複数のフェアネス概念を同時に活用できるかどうかを考察する。
公平な表現は全ての予測タスクに対して公平性を保証するわけではないが、重要なタスクのサブセットに対して公平性を保証する。
論文 参考訳(メタデータ) (2021-09-01T17:29:11Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Convex Fairness Constrained Model Using Causal Effect Estimators [6.414055487487486]
説明バイアスを保ちながら差別を除去するFairCEEと呼ばれる新しいモデルを考案する。
回帰および二分分類タスクにおけるFairCEEの効率的な解法を提案する。
論文 参考訳(メタデータ) (2020-02-16T03:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。