論文の概要: Fair Interpretable Learning via Correction Vectors
- arxiv url: http://arxiv.org/abs/2201.06343v1
- Date: Mon, 17 Jan 2022 10:59:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 03:42:25.255629
- Title: Fair Interpretable Learning via Correction Vectors
- Title(参考訳): 補正ベクトルによる公正な解釈可能学習
- Authors: Mattia Cerrato and Marius K\"oppel and Alexander Segner and Stefan
Kramer
- Abstract要約: 我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
- 参考スコア(独自算出の注目度): 68.29997072804537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network architectures have been extensively employed in the fair
representation learning setting, where the objective is to learn a new
representation for a given vector which is independent of sensitive
information. Various "representation debiasing" techniques have been proposed
in the literature. However, as neural networks are inherently opaque, these
methods are hard to comprehend, which limits their usefulness. We propose a new
framework for fair representation learning which is centered around the
learning of "correction vectors", which have the same dimensionality as the
given data vectors. The corrections are then simply summed up to the original
features, and can therefore be analyzed as an explicit penalty or bonus to each
feature. We show experimentally that a fair representation learning problem
constrained in such a way does not impact performance.
- Abstract(参考訳): ニューラルネットワークアーキテクチャは、機密情報に依存しない与えられたベクトルの新しい表現を学ぶことを目的として、公正表現学習環境において広く採用されている。
様々な「表現脱バイアス」技術が文献で提案されている。
しかし、ニューラルネットワークは本質的に不透明であるため、これらの方法を理解するのが難しく、有用性が制限される。
本研究では,与えられたデータベクトルと同じ次元を持つ「補正ベクトル」の学習を中心に,公平表現学習のための新しい枠組みを提案する。
補正は元の機能に単純に要約されるので、各機能に対する明示的なペナルティやボーナスとして分析することができる。
このような方法で制約された公正表現学習問題が性能に影響を与えないことを実験的に示す。
関連論文リスト
- Learning sparse features can lead to overfitting in neural networks [9.2104922520782]
機能学習は遅延トレーニングよりもパフォーマンスが良くないことを示す。
空間性は異方性データの学習に不可欠であることが知られているが、対象関数が一定あるいは滑らかな場合に有害である。
論文 参考訳(メタデータ) (2022-06-24T14:26:33Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Projection-wise Disentangling for Fair and Interpretable Representation
Learning: Application to 3D Facial Shape Analysis [4.716274324450199]
合流バイアスは、特に臨床実践において、機械学習を実践する上で重要な問題である。
複数のバイアスに依存しない表現を学習する問題について考察する。
本稿では,ほぼすべての情報を潜在表現に保持しながらバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2021-06-25T16:09:56Z) - Learning to Ignore: Fair and Task Independent Representations [0.7106986689736827]
本研究では,不変表現を学習するための共通フレームワークとして捉えることができることを示す。
表現は、データセットをサブグループに分割する敏感な属性に不変であると同時に、ターゲットを予測できるようにするべきです。
提案手法は,どの学習アルゴリズムでも,同じ特徴表現を持つ場合,サンプルを区別することは不可能である,という単純な観察に基づいている。
論文 参考訳(メタデータ) (2021-01-11T17:33:18Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。