論文の概要: SoFaiR: Single Shot Fair Representation Learning
- arxiv url: http://arxiv.org/abs/2204.12556v1
- Date: Tue, 26 Apr 2022 19:31:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 01:32:38.805542
- Title: SoFaiR: Single Shot Fair Representation Learning
- Title(参考訳): sofair: シングルショットフェアな表現学習
- Authors: Xavier Gitiaux and Huzefa Rangwala
- Abstract要約: SoFaiRは、フェアネス情報平面上の多くの点を訓練した1つのモデルで生成する単発フェア表現学習法である。
私たちは、SoFaiRがマルチショットと同じような公正な情報交換を達成している3つのデータセットを見つけました。
- 参考スコア(独自算出の注目度): 24.305894478899948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To avoid discriminatory uses of their data, organizations can learn to map
them into a representation that filters out information related to sensitive
attributes. However, all existing methods in fair representation learning
generate a fairness-information trade-off. To achieve different points on the
fairness-information plane, one must train different models. In this paper, we
first demonstrate that fairness-information trade-offs are fully characterized
by rate-distortion trade-offs. Then, we use this key result and propose SoFaiR,
a single shot fair representation learning method that generates with one
trained model many points on the fairness-information plane. Besides its
computational saving, our single-shot approach is, to the extent of our
knowledge, the first fair representation learning method that explains what
information is affected by changes in the fairness / distortion properties of
the representation. Empirically, we find on three datasets that SoFaiR achieves
similar fairness-information trade-offs as its multi-shot counterparts.
- Abstract(参考訳): データの差別的な利用を避けるために、組織は機密属性に関連する情報をフィルタリングする表現にそれらをマッピングすることを学べる。
しかし、公正表現学習における既存の方法はすべて、公正な情報交換を生成する。
公正情報平面上の異なる点を達成するには、異なるモデルを訓練しなければならない。
本稿では,まず,公平性情報トレードオフが利率ゆがみトレードオフによって完全に特徴付けられることを示す。
そして、このキーとなる結果を用いて、その公正度情報平面上の多くの点を1つの訓練されたモデルで生成する単発フェア表現学習法SoFaiRを提案する。
計算の節約に加えて、我々の知識の範囲では、表現の公正性や歪性の変化によってどのような情報が影響を受けるかを説明する最初の公正表現学習方法です。
実証的な結果として、SoFaiRがマルチショットと同じような公正な情報交換を行う3つのデータセットが見つかる。
関連論文リスト
- DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Latent Space Smoothing for Individually Fair Representations [12.739528232133495]
本稿では,高次元データの個々人の公正性を証明するための最初の表現学習手法LASSIを紹介する。
我々の重要な洞察は、生成的モデリングの最近の進歩を活用して、生成的潜在空間における類似した個人の集合を捉えることである。
ランダムな平滑化を用いて、類似した個人を密にマッピングし、ダウンストリームアプリケーションの局所ロバスト性検証がエンドツーエンドの公正性認証をもたらすことを保証します。
論文 参考訳(メタデータ) (2021-11-26T18:22:42Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - README: REpresentation learning by fairness-Aware Disentangling MEthod [23.93330434580667]
フェア表現学習のためのFD-VAE(Fairness-Aware Disentangling Variational AutoEncoder)を設計する。
このネットワークは、遅延空間を3つの部分空間に切り離し、デコレーション損失を発生させ、各部分空間が独立した情報を含むように促す。
表現学習後、保護属性情報を含む部分空間を除外することにより、この不整合表現をより公平な下流分類に活用する。
論文 参考訳(メタデータ) (2020-07-07T20:16:49Z) - Learning Smooth and Fair Representations [24.305894478899948]
本稿では,特徴量と感性属性との相関関係を,公平な表現空間にマッピングすることで事前に除去する能力について検討する。
実験により,表現分布の平滑化は公平性証明の一般化保証を提供することがわかった。
表現分布の平滑化は、表現学習における最先端手法と比較して下流タスクの精度を低下させるものではない。
論文 参考訳(メタデータ) (2020-06-15T21:51:50Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。