論文の概要: Fair Representation Learning using Interpolation Enabled Disentanglement
- arxiv url: http://arxiv.org/abs/2108.00295v1
- Date: Sat, 31 Jul 2021 17:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 13:20:21.644396
- Title: Fair Representation Learning using Interpolation Enabled Disentanglement
- Title(参考訳): 補間可能アンタングルを用いたフェア表現学習
- Authors: Akshita Jha, Bhanukiran Vinzamuri, Chandan K. Reddy
- Abstract要約: a) 下流タスクに対する学習された表現の有用性を確保しつつ、公平な不整合表現を同時に学べるか、(b) 提案手法が公正かつ正確であるかどうかに関する理論的知見を提供する。
前者に対応するために,補間可能外乱を用いた公正表現学習法FRIEDを提案する。
- 参考スコア(独自算出の注目度): 9.043741281011304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing interest in the machine learning community to solve
real-world problems, it has become crucial to uncover the hidden reasoning
behind their decisions by focusing on the fairness and auditing the predictions
made by these black-box models. In this paper, we propose a novel method to
address two key issues: (a) Can we simultaneously learn fair disentangled
representations while ensuring the utility of the learned representation for
downstream tasks, and (b)Can we provide theoretical insights into when the
proposed approach will be both fair and accurate. To address the former, we
propose the method FRIED, Fair Representation learning using Interpolation
Enabled Disentanglement. In our architecture, by imposing a critic-based
adversarial framework, we enforce the interpolated points in the latent space
to be more realistic. This helps in capturing the data manifold effectively and
enhances the utility of the learned representation for downstream prediction
tasks. We address the latter question by developing a theory on
fairness-accuracy trade-offs using classifier-based conditional mutual
information estimation. We demonstrate the effectiveness of FRIED on datasets
of different modalities - tabular, text, and image datasets. We observe that
the representations learned by FRIED are overall fairer in comparison to
existing baselines and also accurate for downstream prediction tasks.
Additionally, we evaluate FRIED on a real-world healthcare claims dataset where
we conduct an expert aided model auditing study providing useful insights into
opioid ad-diction patterns.
- Abstract(参考訳): 現実の問題を解決するための機械学習コミュニティへの関心が高まっているため、これらのブラックボックスモデルによる予測の公平さと監査に注目して、意思決定の背後にある隠れた理由を明らかにすることが重要になっている。
本稿では,2つの課題を解決するための新しい手法を提案する。 (a) 下流タスクにおける学習表現の有用性を確保しつつ,同時に公平な不等角表現を学習できるか, (b) 提案手法がいつ公平かつ正確になるかに関する理論的洞察を提供することができるか。
前者に対応するために,補間可能外乱を用いた公正表現学習法FRIEDを提案する。
我々のアーキテクチャでは、批判に基づく敵対的枠組みを取り入れることで、潜伏空間の補間点をより現実的なものにする。
これにより、データ多様体を効果的にキャプチャし、下流予測タスクにおける学習表現の有用性を高めることができる。
分類器に基づく条件付き相互情報推定を用いたフェアネス精度トレードオフ理論を考案し、後者の課題に対処する。
我々は,FRIEDが表,テキスト,画像データセットなど,異なるモダリティのデータセットに対して有効であることを示す。
FRIEDが学習した表現は、既存のベースラインに比べて全体的に公平であり、下流予測タスクにも正確である。
さらに、FRIEDを現実世界の医療クレームデータセットで評価し、オピオイドのアドディクションパターンに関する有用な洞察を提供する専門家支援モデル監査研究を行う。
関連論文リスト
- Rethinking Fair Representation Learning for Performance-Sensitive Tasks [19.40265690963578]
因果推論を用いて、データセットバイアスの異なるソースを定義し、定式化する。
我々は、分布シフト下での公正表現学習の性能を調べるために、様々な医学的モダリティにまたがる実験を行う。
論文 参考訳(メタデータ) (2024-10-05T11:01:16Z) - Debiasing Graph Representation Learning based on Information Bottleneck [18.35405511009332]
本稿では,変分グラフオートエンコーダに基づく新しいフレームワークGRAFairの設計と実装について述べる。
GRAFairの要点は条件フェアネス・ボトルネック(Conditional Fairness Bottleneck)であり、表現の効用と関心の情報とのトレードオフを捉えることを目的としている。
実世界の様々なデータセットに対する実験により,提案手法の有効性を,公正性,有用性,堅牢性,安定性の観点から実証した。
論文 参考訳(メタデータ) (2024-09-02T16:45:23Z) - Disentangled Representation Learning with Transmitted Information Bottleneck [57.22757813140418]
textbfDisTIB (textbfTransmitted textbfInformation textbfBottleneck for textbfDisd representation learning) は情報圧縮と保存のバランスを保った新しい目的である。
論文 参考訳(メタデータ) (2023-11-03T03:18:40Z) - An Operational Perspective to Fairness Interventions: Where and How to
Intervene [9.833760837977222]
フェアネス介入の評価と文脈化のための包括的枠組みを提案する。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
グループデータを使わずに予測パリティを実現することは困難である。
論文 参考訳(メタデータ) (2023-02-03T07:04:33Z) - Disentangled Representation with Causal Constraints for Counterfactual
Fairness [25.114619307838602]
この研究は、構造化された表現を使用することで、下流の予測モデルが反現実的公正を達成することを理論的に証明している。
本稿では,ドメイン知識に関する構造化表現を得るために,CF-VAE(Counterfactal Fairness Variational AutoEncoder)を提案する。
実験結果から,提案手法はベンチマークフェアネス法よりも高精度で精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-08-19T04:47:58Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。