論文の概要: Fair Interpretable Representation Learning with Correction Vectors
- arxiv url: http://arxiv.org/abs/2202.03078v1
- Date: Mon, 7 Feb 2022 11:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 22:55:33.118138
- Title: Fair Interpretable Representation Learning with Correction Vectors
- Title(参考訳): 補正ベクトルを用いたフェア解釈可能表現学習
- Authors: Mattia Cerrato, Alesia Vallenas Coronel, Marius K\"oppel, Alexander
Segner, Roberto Esposito, Stefan Kramer
- Abstract要約: 我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
- 参考スコア(独自算出の注目度): 60.0806628713968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network architectures have been extensively employed in the fair
representation learning setting, where the objective is to learn a new
representation for a given vector which is independent of sensitive
information. Various representation debiasing techniques have been proposed in
the literature. However, as neural networks are inherently opaque, these
methods are hard to comprehend, which limits their usefulness. We propose a new
framework for fair representation learning that is centered around the learning
of "correction vectors", which have the same dimensionality as the given data
vectors. Correction vectors may be computed either explicitly via architectural
constraints or implicitly by training an invertible model based on Normalizing
Flows. We show experimentally that several fair representation learning models
constrained in such a way do not exhibit losses in ranking or classification
performance. Furthermore, we demonstrate that state-of-the-art results can be
achieved by the invertible model. Finally, we discuss the law standing of our
methodology in light of recent legislation in the European Union.
- Abstract(参考訳): ニューラルネットワークアーキテクチャは、機密情報に依存しない与えられたベクトルの新しい表現を学ぶことを目的として、公正表現学習環境において広く採用されている。
様々な表現脱バイアス技術が文献で提案されている。
しかし、ニューラルネットワークは本質的に不透明であるため、これらの方法を理解するのが難しく、有用性が制限される。
本研究では,与えられたデータベクトルと同じ次元を持つ「補正ベクトル」の学習を中心に,公平表現学習のための新しい枠組みを提案する。
補正ベクトルは、アーキテクチャ上の制約によって明示的に計算するか、正規化フローに基づく可逆モデルをトレーニングすることで暗黙的に計算することができる。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを示す。
さらに,最新の結果が可逆モデルによって達成できることを実証する。
最後に、欧州連合の最近の法律を踏まえて、我々の方法論の法則について論じる。
関連論文リスト
- Interpretable time series neural representation for classification
purposes [3.1201323892302444]
提案したモデルは、一貫した、離散的で、解釈可能で、可視化可能な表現を生成する。
実験の結果,提案したモデルでは,複数のデータセットに対する他の解釈可能なアプローチよりも平均的に優れた結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-25T15:06:57Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Combining Discrete Choice Models and Neural Networks through Embeddings:
Formulation, Interpretability and Performance [10.57079240576682]
本研究では、ニューラルネットワーク(ANN)を用いた理論とデータ駆動選択モデルを組み合わせた新しいアプローチを提案する。
特に、分類的または離散的説明変数を符号化するために、埋め込みと呼ばれる連続ベクトル表現を用いる。
我々のモデルは最先端の予測性能を提供し、既存のANNモデルよりも優れ、必要なネットワークパラメータの数を劇的に削減します。
論文 参考訳(メタデータ) (2021-09-24T15:55:31Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Making Sense of CNNs: Interpreting Deep Representations & Their
Invariances with INNs [19.398202091883366]
INN に基づくアプローチとして, (i) タスク固有の学習的不変性を, (ii) モデル表現と組み合わさった不変性を, (ii) アクセシブルなセマンティックな概念によって, 可逆的に変換する手法を提案する。
我々の非可逆的アプローチは、その性能を損なうことなく、最先端ネットワークのポストホックな解釈を可能にすることでブラックボックスモデルを理解する能力を大幅に拡張する。
論文 参考訳(メタデータ) (2020-08-04T19:27:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。