論文の概要: Implementing Fairness in AI Classification: The Role of Explainability
- arxiv url: http://arxiv.org/abs/2407.14766v2
- Date: Mon, 24 Mar 2025 05:27:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 16:32:16.132488
- Title: Implementing Fairness in AI Classification: The Role of Explainability
- Title(参考訳): AI分類におけるフェアネスの実践 - 説明可能性の役割
- Authors: Thomas Souverain, Johnathan Nguyen, Nicolas Meric, Paul Égré,
- Abstract要約: AI分類における公平性の実装には、公正度測定を単に運用すること以上の作業が必要だ、と我々は主張する。
トレーニングプロセスを透過化し、フェアネス基準が実際に生み出す成果を判断し、トレードオフを評価する。
これらの説明的なステップがAIモデルを信頼できるものにする方法に関する結論を導きます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a philosophical and experimental investigation of the problem of AI fairness in classification. We argue that implementing fairness in AI classification involves more work than just operationalizing a fairness metric. It requires establishing the explainability of the classification model chosen and of the principles behind it. Specifically, it involves making the training processes transparent, determining what outcomes the fairness criteria actually produce, and assessing their trade-offs by comparison with closely related models that would lead to a different outcome. To exemplify this methodology, we trained a model and developed a tool for disparity detection and fairness interventions, the package FairDream. While FairDream is set to enforce Demographic Parity, experiments reveal that it fulfills the constraint of Equalized Odds. The algorithm is thus more conservative than the user might expect. To justify this outcome, we first clarify the relation between Demographic Parity and Equalized Odds as fairness criteria. We then explain FairDream's reweighting method and justify the trade-offs reached by FairDream by a benchmark comparison with closely related GridSearch models. We draw conclusions regarding the way in which these explanatory steps can make an AI model trustworthy.
- Abstract(参考訳): 本稿では,分類におけるAIフェアネスの問題に関する哲学的,実験的研究を提案する。
AI分類における公平性の実装には、公正度測定を単に運用すること以上の作業が必要だ、と我々は主張する。
選択された分類モデルとその背景にある原則の説明可能性を確立する必要がある。
具体的には、トレーニングプロセスを透過化し、公正基準が実際に生み出す成果を判断し、異なる結果をもたらす密接な関係のあるモデルと比較してトレードオフを評価する。
この手法を実証するため,我々はモデルの訓練を行い,FairDreamパッケージである不均一検出と公正介入のためのツールを開発した。
FairDreamはDemographic Parityの実施を予定しているが、実験の結果、等化オッドの制約を満たすことが判明した。
したがって、アルゴリズムはユーザーが予想するよりも保守的である。
この結果を正当化するために、まず、公正度基準として、デモグラフィックパリティと等化オッドの関係を明らかにする。
次に、FairDreamの再重み付け方法を説明し、FairDreamが到達したトレードオフを、密接に関連するGridSearchモデルと比較して正当化する。
これらの説明的なステップがAIモデルを信頼できるものにする方法に関する結論を導きます。
関連論文リスト
- Learning Counterfactually Fair Models via Improved Generation with Neural Causal Models [0.0]
機械学習モデルを現実世界のアプリケーションにデプロイする際の主な関心事のひとつは、公平性である。
既存のカウンターファクトフェアネスの実施方法には2つの制限があるようである。
本稿では,反現実的なサンプルを生成するためにニューラル因果モデルを提案する。
また,MMDをベースとした新たな正規化手法を提案する。
論文 参考訳(メタデータ) (2025-02-18T11:59:03Z) - What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Counterfactual Fairness Is Basically Demographic Parity [0.0]
公正な意思決定は、倫理的に機械学習アルゴリズムを社会的設定で実装する上で重要である。
また, 対実的公正性を満たすアルゴリズムが, 人口統計学的平等を満足することを示す。
我々は、保護グループ内の個人の秩序を維持するという具体的な公正目標を定式化する。
論文 参考訳(メタデータ) (2022-08-07T23:38:59Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Fair Representation: Guaranteeing Approximate Multiple Group Fairness
for Unknown Tasks [17.231251035416648]
本研究では,未知のタスクに対して公平性を保証し,複数のフェアネス概念を同時に活用できるかどうかを考察する。
公平な表現は全ての予測タスクに対して公平性を保証するわけではないが、重要なタスクのサブセットに対して公平性を保証する。
論文 参考訳(メタデータ) (2021-09-01T17:29:11Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Convex Fairness Constrained Model Using Causal Effect Estimators [6.414055487487486]
説明バイアスを保ちながら差別を除去するFairCEEと呼ばれる新しいモデルを考案する。
回帰および二分分類タスクにおけるFairCEEの効率的な解法を提案する。
論文 参考訳(メタデータ) (2020-02-16T03:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。