論文の概要: Fairness Explainability using Optimal Transport with Applications in
Image Classification
- arxiv url: http://arxiv.org/abs/2308.11090v2
- Date: Tue, 31 Oct 2023 15:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 23:04:55.866709
- Title: Fairness Explainability using Optimal Transport with Applications in
Image Classification
- Title(参考訳): 最適輸送を用いたフェアネス説明可能性と画像分類への応用
- Authors: Philipp Ratz and Fran\c{c}ois Hu and Arthur Charpentier
- Abstract要約: 機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring trust and accountability in Artificial Intelligence systems demands
explainability of its outcomes. Despite significant progress in Explainable AI,
human biases still taint a substantial portion of its training data, raising
concerns about unfairness or discriminatory tendencies. Current approaches in
the field of Algorithmic Fairness focus on mitigating such biases in the
outcomes of a model, but few attempts have been made to try to explain
\emph{why} a model is biased. To bridge this gap between the two fields, we
propose a comprehensive approach that uses optimal transport theory to uncover
the causes of discrimination in Machine Learning applications, with a
particular emphasis on image classification. We leverage Wasserstein
barycenters to achieve fair predictions and introduce an extension to pinpoint
bias-associated regions. This allows us to derive a cohesive system which uses
the enforced fairness to measure each features influence \emph{on} the bias.
Taking advantage of this interplay of enforcing and explaining fairness, our
method hold significant implications for the development of trustworthy and
unbiased AI systems, fostering transparency, accountability, and fairness in
critical decision-making scenarios across diverse domains.
- Abstract(参考訳): 人工知能システムにおける信頼と説明責任の確保は、その成果の説明可能性を要求する。
説明可能なAIの大幅な進歩にもかかわらず、人間の偏見はトレーニングデータのかなりの部分を占めており、不公平さや差別的傾向に対する懸念を高めている。
アルゴリズムの公平さの分野における現在のアプローチは、モデルの結果におけるそのようなバイアスの緩和に焦点を当てているが、モデルが偏っていることを説明する試みは、ほとんど行われていない。
この2つの分野間のギャップを埋めるため,我々は最適な輸送理論を用いて機械学習アプリケーションにおける識別の原因を明らかにする包括的アプローチを提案し,特に画像分類を強調する。
我々はwasserstein barycentersを利用して公正な予測を行い,バイアス関連領域をピンポイントする拡張を導入する。
これにより、強制された公平性を用いて各特徴が偏りに影響を及ぼすことを計測する凝集システムを得ることができる。
フェアネスの実施と説明というこの相互作用を利用して、我々の手法は、さまざまな領域にわたる重要な意思決定シナリオにおける透明性、説明責任、公平性を育み、信頼に値するAIシステムの開発に重大な影響を与える。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Fair Clustering: A Causal Perspective [5.885238773559016]
非因果フェアネスの概念の最適化は、因果的観点から直接差別効果をパラドックス的に引き起こすことが示されている。
本稿では、因果フェアネス指標を取り入れたクラスタリング手法を提案し、教師なし学習における公平性に対するよりニュアンスなアプローチを提供する。
論文 参考訳(メタデータ) (2023-12-14T15:58:03Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations [12.248793742165278]
我々は、説明に基づく手続き指向公正の新たな視点を提示することにより、公正性と説明可能性のギャップを埋める。
本稿では,複数の目的を同時に達成する包括的公正性アルゴリズム (CFA) を提案する。
論文 参考訳(メタデータ) (2022-12-07T18:35:54Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。