論文の概要: Latent Space Smoothing for Individually Fair Representations
- arxiv url: http://arxiv.org/abs/2111.13650v1
- Date: Fri, 26 Nov 2021 18:22:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 15:59:16.805270
- Title: Latent Space Smoothing for Individually Fair Representations
- Title(参考訳): 個々に公正な表現のための潜在空間平滑化
- Authors: Momchil Peychev, Anian Ruoss, Mislav Balunovi\'c, Maximilian Baader,
Martin Vechev
- Abstract要約: 本稿では,高次元データの個々人の公正性を証明するための最初の表現学習手法LASSIを紹介する。
我々の重要な洞察は、生成的モデリングの最近の進歩を活用して、生成的潜在空間における類似した個人の集合を捉えることである。
ランダムな平滑化を用いて、類似した個人を密にマッピングし、ダウンストリームアプリケーションの局所ロバスト性検証がエンドツーエンドの公正性認証をもたらすことを保証します。
- 参考スコア(独自算出の注目度): 12.739528232133495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair representation learning encodes user data to ensure fairness and
utility, regardless of the downstream application. However, learning
individually fair representations, i.e., guaranteeing that similar individuals
are treated similarly, remains challenging in high-dimensional settings such as
computer vision. In this work, we introduce LASSI, the first representation
learning method for certifying individual fairness of high-dimensional data.
Our key insight is to leverage recent advances in generative modeling to
capture the set of similar individuals in the generative latent space. This
allows learning individually fair representations where similar individuals are
mapped close together, by using adversarial training to minimize the distance
between their representations. Finally, we employ randomized smoothing to
provably map similar individuals close together, in turn ensuring that local
robustness verification of the downstream application results in end-to-end
fairness certification. Our experimental evaluation on challenging real-world
image data demonstrates that our method increases certified individual fairness
by up to 60%, without significantly affecting task utility.
- Abstract(参考訳): fair representation learningは、下流のアプリケーションに関係なく、公正性と有用性を保証するために、ユーザデータをエンコードする。
しかし、個々に公平な表現を学ぶこと、すなわち類似した個人が同じように扱われることを保証することは、コンピュータビジョンのような高次元の設定では依然として困難である。
本稿では,高次元データの個別公平性を証明するための最初の表現学習法であるlassiを紹介する。
我々の重要な洞察は、生成的モデリングの最近の進歩を活用して、生成的潜在空間における類似した個人の集合を捉えることである。
これにより、類似した個人が互いに近接してマッピングされる、個々に公正な表現を学ぶことができる。
最後に,ランダムな平滑化を用いて類似の個人を密接なマップし,下流アプリケーションの局所的ロバスト性検証によってエンドツーエンドのフェアネス認証が実現されるようにした。
実世界の画像データに挑戦する実験により,提案手法はタスクユーティリティに大きな影響を及ぼすことなく,認定された個人の公正度を最大60%向上させることを示した。
関連論文リスト
- Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - Toward Fairer Face Recognition Datasets [69.04239222633795]
顔認識と検証は、ディープ表現の導入によってパフォーマンスが向上したコンピュータビジョンタスクである。
実際のトレーニングデータセットにおける顔データとバイアスのセンシティブな性格による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
論文 参考訳(メタデータ) (2024-06-24T12:33:21Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - SoFaiR: Single Shot Fair Representation Learning [24.305894478899948]
SoFaiRは、フェアネス情報平面上の多くの点を訓練した1つのモデルで生成する単発フェア表現学習法である。
私たちは、SoFaiRがマルチショットと同じような公正な情報交換を達成している3つのデータセットを見つけました。
論文 参考訳(メタデータ) (2022-04-26T19:31:30Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Learning Smooth and Fair Representations [24.305894478899948]
本稿では,特徴量と感性属性との相関関係を,公平な表現空間にマッピングすることで事前に除去する能力について検討する。
実験により,表現分布の平滑化は公平性証明の一般化保証を提供することがわかった。
表現分布の平滑化は、表現学習における最先端手法と比較して下流タスクの精度を低下させるものではない。
論文 参考訳(メタデータ) (2020-06-15T21:51:50Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Learning Certified Individually Fair Representations [15.416929083117596]
好まれるフェアネス制約の族は、それぞれ類似した個人に対する同様の治療を必要とするが、個別のフェアネスとして知られている。
本稿では,データコンシューマが既存のデータポイントと新しいデータポイントに対して,個々の公正性の証明書を取得できるようにする最初の方法を提案する。
論文 参考訳(メタデータ) (2020-02-24T15:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。