論文の概要: Fairness by Learning Orthogonal Disentangled Representations
- arxiv url: http://arxiv.org/abs/2003.05707v3
- Date: Sat, 4 Jul 2020 09:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:05:20.823556
- Title: Fairness by Learning Orthogonal Disentangled Representations
- Title(参考訳): 直交不等角表現の学習による公平性
- Authors: Mhd Hasan Sarhan, Nassir Navab, Abouzar Eslami, Shadi Albarqouni
- Abstract要約: 不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
- 参考スコア(独自算出の注目度): 50.82638766862974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning discriminative powerful representations is a crucial step for
machine learning systems. Introducing invariance against arbitrary nuisance or
sensitive attributes while performing well on specific tasks is an important
problem in representation learning. This is mostly approached by purging the
sensitive information from learned representations. In this paper, we propose a
novel disentanglement approach to invariant representation problem. We
disentangle the meaningful and sensitive representations by enforcing
orthogonality constraints as a proxy for independence. We explicitly enforce
the meaningful representation to be agnostic to sensitive information by
entropy maximization. The proposed approach is evaluated on five publicly
available datasets and compared with state of the art methods for learning
fairness and invariance achieving the state of the art performance on three
datasets and comparable performance on the rest. Further, we perform an
ablative study to evaluate the effect of each component.
- Abstract(参考訳): 判別可能な強力な表現の学習は、機械学習システムにとって重要なステップである。
特定のタスクでうまく実行しながら、任意の迷惑や繊細な属性に対する不変性を導入することは、表現学習において重要な問題である。
これは主に、学習した表現からセンシティブな情報を浄化することでアプローチされる。
本稿では,不変表現問題に対する新しい不等角化手法を提案する。
我々は,独立性の代理として直交性制約を強制することにより,意味的かつ敏感な表現を解消する。
エントロピーの最大化により、意味のある表現が機密情報に依存しないように明示的に強制する。
提案手法は5つの公開データセットで評価され,3つのデータセット上でのアートパフォーマンスの状態と,それと同等のパフォーマンスを達成するためのフェアネスと不変性を学習する技術手法の状況と比較する。
さらに,各成分の効果を評価するためのアブレーション研究を行った。
関連論文リスト
- Separating common from salient patterns with Contrastive Representation
Learning [2.250968907999846]
コントラスト分析は、2つのデータセット間の変動の共通要因を分離することを目的としている。
変分オートエンコーダに基づく現在のモデルは意味表現の学習において性能が劣っている。
コントラスト分析に適合した意味表現表現を学習するためのコントラスト学習の活用を提案する。
論文 参考訳(メタデータ) (2024-02-19T08:17:13Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Learning Fair Representation via Distributional Contrastive
Disentanglement [9.577369164287813]
公正な表現を学ぶことは、公平性を達成するか、センシティブな情報を悪用するために不可欠である。
本稿では,FarconVAE(Contrastive Variational AutoEncoder)を用いたFAir表現学習手法を提案する。
フェアネス、事前訓練されたモデルデバイアス、および様々なモダリティからの領域一般化タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-17T12:58:58Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - RELAX: Representation Learning Explainability [10.831313203043514]
本稿では、帰属に基づく表現の説明のための最初のアプローチであるRELAXを提案する。
ReLAXは、入力とマスクアウトされた自身のバージョンの間の表現空間における類似性を測定することで表現を説明する。
我々はRELAXの理論的解釈を提供し、教師なし学習を用いて訓練された特徴抽出器を新規に解析する。
論文 参考訳(メタデータ) (2021-12-19T14:51:31Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Conditional Contrastive Learning: Removing Undesirable Information in
Self-Supervised Representations [108.29288034509305]
我々は,自己指導型表現において望ましくない情報を除去するために,条件付きコントラスト学習を開発する。
提案手法は,下流タスクの自己教師付き表現をうまく学習できることを実証的に実証する。
論文 参考訳(メタデータ) (2021-06-05T10:51:26Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。