論文の概要: Addressing Fairness and Explainability in Image Classification Using
Optimal Transport
- arxiv url: http://arxiv.org/abs/2308.11090v1
- Date: Tue, 22 Aug 2023 00:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 19:37:23.409932
- Title: Addressing Fairness and Explainability in Image Classification Using
Optimal Transport
- Title(参考訳): 最適輸送を用いた画像分類におけるフェアネスと説明可能性
- Authors: Philipp Ratz and Fran\c{c}ois Hu and Arthur Charpentier
- Abstract要約: 本稿では,画像中のバイアス領域の原因と意味を明らかにするための包括的アプローチを提案する。
我々の発見は、信頼に値する、偏見のないAIシステムの開発に重大な影響を及ぼす。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic Fairness and the explainability of potentially unfair outcomes
are crucial for establishing trust and accountability of Artificial
Intelligence systems in domains such as healthcare and policing. Though
significant advances have been made in each of the fields separately, achieving
explainability in fairness applications remains challenging, particularly so in
domains where deep neural networks are used. At the same time, ethical
data-mining has become ever more relevant, as it has been shown countless times
that fairness-unaware algorithms result in biased outcomes. Current approaches
focus on mitigating biases in the outcomes of the model, but few attempts have
been made to try to explain \emph{why} a model is biased. To bridge this gap,
we propose a comprehensive approach that leverages optimal transport theory to
uncover the causes and implications of biased regions in images, which easily
extends to tabular data as well. Through the use of Wasserstein barycenters, we
obtain scores that are independent of a sensitive variable but keep their
marginal orderings. This step ensures predictive accuracy but also helps us to
recover the regions most associated with the generation of the biases. Our
findings hold significant implications for the development of trustworthy and
unbiased AI systems, fostering transparency, accountability, and fairness in
critical decision-making scenarios across diverse domains.
- Abstract(参考訳): アルゴリズム的公平性と潜在的不公平な結果の説明は、医療や警察などの分野における人工知能システムの信頼と説明可能性を確立する上で不可欠である。
それぞれの分野では大きな進歩があったが、特にディープニューラルネットワークを使用する領域では、フェアネスアプリケーションにおける説明可能性の達成は依然として困難である。
同時に、倫理的なデータマイニングは、公正さを意識しないアルゴリズムがバイアスのある結果をもたらすことを、数え切れないほど示してきた。
現在のアプローチでは、モデルの結果におけるバイアスの軽減に焦点を当てているが、モデルが偏っていることを説明する試みはほとんど行われていない。
このギャップを埋めるために,画像内の偏り領域の原因と影響を明らかにするために,最適輸送理論を利用する包括的アプローチを提案する。
ワッサースタイン・バリセンタ(wasserstein barycenters)の使用により、感度の高い変数とは独立なスコアを得るが、限界順序は保持する。
このステップは予測精度を確保しますが、バイアスの発生に最も関連する領域の回復にも役立ちます。
我々の発見は、さまざまな領域にわたる重要な意思決定シナリオにおける透明性、説明責任、公平性を育み、信頼できるAIシステムの開発に重大な影響を与える。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Fair Clustering: A Causal Perspective [5.885238773559016]
非因果フェアネスの概念の最適化は、因果的観点から直接差別効果をパラドックス的に引き起こすことが示されている。
本稿では、因果フェアネス指標を取り入れたクラスタリング手法を提案し、教師なし学習における公平性に対するよりニュアンスなアプローチを提供する。
論文 参考訳(メタデータ) (2023-12-14T15:58:03Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations [12.248793742165278]
我々は、説明に基づく手続き指向公正の新たな視点を提示することにより、公正性と説明可能性のギャップを埋める。
本稿では,複数の目的を同時に達成する包括的公正性アルゴリズム (CFA) を提案する。
論文 参考訳(メタデータ) (2022-12-07T18:35:54Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。