論文の概要: Constructing Fair Latent Space for Intersection of Fairness and Explainability
- arxiv url: http://arxiv.org/abs/2412.17523v1
- Date: Mon, 23 Dec 2024 12:47:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:01:32.563064
- Title: Constructing Fair Latent Space for Intersection of Fairness and Explainability
- Title(参考訳): フェアネスと説明可能性の交差のためのフェアレイト空間の構築
- Authors: Hyungjun Joo, Hyeonggeun Han, Sehwan Kim, Sangwoo Hong, Jungwoo Lee,
- Abstract要約: 本稿では,公正性を確保しつつ忠実な説明を可能にする,公正な潜在空間を構築する新しいモジュールを提案する。
我々のモジュールは事前訓練された生成モデルに結びついており、偏りのある潜在空間を公平な潜在空間に変換する。
様々なフェアネス指標を用いてフェアレント空間を検証し、偏りのある決定やフェアネスの保証について効果的に説明できることを実証する。
- 参考スコア(独自算出の注目度): 4.8884049398279705
- License:
- Abstract: As the use of machine learning models has increased, numerous studies have aimed to enhance fairness. However, research on the intersection of fairness and explainability remains insufficient, leading to potential issues in gaining the trust of actual users. Here, we propose a novel module that constructs a fair latent space, enabling faithful explanation while ensuring fairness. The fair latent space is constructed by disentangling and redistributing labels and sensitive attributes, allowing the generation of counterfactual explanations for each type of information. Our module is attached to a pretrained generative model, transforming its biased latent space into a fair latent space. Additionally, since only the module needs to be trained, there are advantages in terms of time and cost savings, without the need to train the entire generative model. We validate the fair latent space with various fairness metrics and demonstrate that our approach can effectively provide explanations for biased decisions and assurances of fairness.
- Abstract(参考訳): 機械学習モデルの使用が増加するにつれて、多くの研究が公正性を高めることを目的としている。
しかし、公正さと説明可能性の交差に関する研究は依然として不十分であり、実際の利用者の信頼を得る際の潜在的な問題となっている。
ここでは、公正性を確保しつつ忠実な説明を可能にする、公正な潜在空間を構築する新しいモジュールを提案する。
公正な潜伏空間は、ラベルと機密属性を分離して再分配することにより構築され、情報の種類ごとに反実的な説明が生成される。
我々のモジュールは事前訓練された生成モデルに結びついており、偏りのある潜在空間を公平な潜在空間に変換する。
さらに、モジュールのみをトレーニングする必要があるため、生成モデル全体をトレーニングすることなく、時間とコストの節約という面でメリットがあります。
様々なフェアネス指標を用いてフェアレント空間を検証し、偏りのある決定やフェアネスの保証について効果的に説明できることを実証する。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Faithful Model Explanations through Energy-Constrained Conformal
Counterfactuals [16.67633872254042]
ブラックボックスモデルを説明するための直感的で直感的な説明を提供する。
既存の作業は主に、入力データの分散方法を学ぶために代理モデルに依存しています。
そこで本研究では,モデルが許容する範囲でのみ有効な,エネルギー制約のあるコンフォーマル・カウンセリングを生成するための新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-17T08:24:44Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Biased Models Have Biased Explanations [10.9397029555303]
機械学習モデルで生成された属性に基づく説明のレンズを通して、機械学習(FairML)の公平性を検討します。
まず、群フェアネスの既存の統計的概念を翻訳し、モデルから与えられた説明の観点からこれらの概念を定義する。
そこで本研究では,ブラックボックスモデルに対する新しい(不公平な)検出方法を提案する。
論文 参考訳(メタデータ) (2020-12-20T18:09:45Z) - Explainability for fair machine learning [10.227479910430866]
本稿では,Shapley値のパラダイムに基づく機械学習における公平性を説明するための新しいアプローチを提案する。
我々の公正な説明は、モデルがセンシティブな属性を直接操作していない場合であっても、モデル全体の不公平さを個々の入力特徴に帰着する。
本稿では,既存のトレーニング時間フェアネス介入を適用したメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T20:21:01Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。