論文の概要: Learning Unbiased Representations via R\'enyi Minimization
- arxiv url: http://arxiv.org/abs/2009.03183v1
- Date: Mon, 7 Sep 2020 15:48:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:03:09.327352
- Title: Learning Unbiased Representations via R\'enyi Minimization
- Title(参考訳): R'enyi最小化による不偏表現の学習
- Authors: Vincent Grari, Oualid El Hajouji, Sylvain Lamprier, Marcin Detyniecki
- Abstract要約: 本稿では,HGR(Hirschfeld-Gebel-Renyi)最大相関係数を用いて,不偏表現を学習する逆アルゴリズムを提案する。
我々は、我々のアプローチを実証的に評価し、比較し、この分野における既存の作業よりも大幅に改善したことを示す。
- 参考スコア(独自算出の注目度): 13.61565693336172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, significant work has been done to include fairness
constraints in the training objective of machine learning algorithms. Many
state-of the-art algorithms tackle this challenge by learning a fair
representation which captures all the relevant information to predict the
output Y while not containing any information about a sensitive attribute S. In
this paper, we propose an adversarial algorithm to learn unbiased
representations via the Hirschfeld-Gebelein-Renyi (HGR) maximal correlation
coefficient. We leverage recent work which has been done to estimate this
coefficient by learning deep neural network transformations and use it as a
minmax game to penalize the intrinsic bias in a multi dimensional latent
representation. Compared to other dependence measures, the HGR coefficient
captures more information about the non-linear dependencies with the sensitive
variable, making the algorithm more efficient in mitigating bias in the
representation. We empirically evaluate and compare our approach and
demonstrate significant improvements over existing works in the field.
- Abstract(参考訳): 近年,機械学習アルゴリズムの学習目標に公正性制約を含む重要な研究が行われている。
本稿では,すべての関連する情報を収集して出力yを予測するフェア表現を学習し,感度の高い属性sに関する情報を含まないアルゴリズムを提案する。
本研究では,ディープニューラルネットワーク変換を学習し,ミンマックスゲームとして多次元潜在表現における内在バイアスをペナルティ化することにより,この係数を推定する最近の研究を活用する。
他の依存測度と比較すると、hgr係数は敏感な変数との非線形依存関係に関するより多くの情報をキャプチャし、アルゴリズムが表現のバイアスを緩和するのをより効率的にする。
我々は、我々のアプローチを実証的に評価し、比較し、この分野における既存の作業よりも大幅に改善したことを示す。
関連論文リスト
- Automatic debiasing of neural networks via moment-constrained learning [0.0]
偏差推定器の回帰関数をネーティブに学習し,対象関数のサンプル平均値を取得する。
本稿では,自動脱バイアスの欠点に対処する新しいRR学習手法として,モーメント制約学習を提案する。
論文 参考訳(メタデータ) (2024-09-29T20:56:54Z) - Performance Evaluation and Comparison of a New Regression Algorithm [4.125187280299247]
新たに提案した回帰アルゴリズムの性能を,従来の4つの機械学習アルゴリズムと比較した。
GitHubリポジトリにソースコードを提供したので、読者は結果の複製を自由にできます。
論文 参考訳(メタデータ) (2023-06-15T13:01:16Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - R\'enyiCL: Contrastive Representation Learning with Skew R\'enyi
Divergence [78.15455360335925]
我々はR'enyiCLという新しい頑健なコントラスト学習手法を提案する。
我々の手法は R'enyi divergence の変動的下界の上に構築されている。
我々は,R'enyi の対照的な学習目的が,自然に強い負のサンプリングと簡単な正のサンプリングを同時に行うことを示す。
論文 参考訳(メタデータ) (2022-08-12T13:37:05Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Relational Surrogate Loss Learning [41.61184221367546]
本稿では、評価指標を近似するためにディープニューラルネットワークを用いる代理損失学習を再考する。
本稿では,サロゲート損失と測定値の関係を直接的に維持することを示す。
私たちの方法は最適化がずっと簡単で、大幅な効率と性能向上を享受しています。
論文 参考訳(メタデータ) (2022-02-26T17:32:57Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。