論文の概要: Learning Certified Individually Fair Representations
- arxiv url: http://arxiv.org/abs/2002.10312v2
- Date: Sat, 28 Nov 2020 18:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 02:34:15.760111
- Title: Learning Certified Individually Fair Representations
- Title(参考訳): 個別に公正な表現を認定する学習
- Authors: Anian Ruoss, Mislav Balunovi\'c, Marc Fischer, and Martin Vechev
- Abstract要約: 好まれるフェアネス制約の族は、それぞれ類似した個人に対する同様の治療を必要とするが、個別のフェアネスとして知られている。
本稿では,データコンシューマが既存のデータポイントと新しいデータポイントに対して,個々の公正性の証明書を取得できるようにする最初の方法を提案する。
- 参考スコア(独自算出の注目度): 15.416929083117596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fair representation learning provides an effective way of enforcing fairness
constraints without compromising utility for downstream users. A desirable
family of such fairness constraints, each requiring similar treatment for
similar individuals, is known as individual fairness. In this work, we
introduce the first method that enables data consumers to obtain certificates
of individual fairness for existing and new data points. The key idea is to map
similar individuals to close latent representations and leverage this latent
proximity to certify individual fairness. That is, our method enables the data
producer to learn and certify a representation where for a data point all
similar individuals are at $\ell_\infty$-distance at most $\epsilon$, thus
allowing data consumers to certify individual fairness by proving
$\epsilon$-robustness of their classifier. Our experimental evaluation on five
real-world datasets and several fairness constraints demonstrates the
expressivity and scalability of our approach.
- Abstract(参考訳): 公平表現学習(fair representation learning)は、下流ユーザのユーティリティを損なうことなく公平性制約を強制する効果的な方法を提供する。
このような公正な制約の望ましい家族は、それぞれ類似した個人に対する同様の治療を必要とする。
本稿では,データ消費者が既存のデータポイントや新しいデータポイントに対して個別の公平性を示す証明書を取得できるようにする最初の方法を提案する。
鍵となるアイデアは、類似の個人を潜伏表現にマップし、この潜伏の近接を利用して個々人の公平性を証明することである。
すなわち,データ生成者がデータポイントに対してすべての類似の個人が$\ell_\infty$-distance at most $\epsilon$であるような表現を学習し,証明することができるので,データコンシューマは,分類器の$\epsilon$-robustnessを証明して個々の公正性を証明することができる。
5つの実世界のデータセットといくつかの公正性制約に関する実験的な評価は、我々のアプローチの表現性と拡張性を示している。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - SoFaiR: Single Shot Fair Representation Learning [24.305894478899948]
SoFaiRは、フェアネス情報平面上の多くの点を訓練した1つのモデルで生成する単発フェア表現学習法である。
私たちは、SoFaiRがマルチショットと同じような公正な情報交換を達成している3つのデータセットを見つけました。
論文 参考訳(メタデータ) (2022-04-26T19:31:30Z) - Achieving Fairness at No Utility Cost via Data Reweighing with Influence [27.31236521189165]
トレーニング段階におけるサンプルの重量のみを調整するデータリライジング手法を提案する。
本研究は,各トレーニングサンプルの影響を,公正度関連量と予測ユーティリティに関して詳細にモデル化する。
当社のアプローチは、トレードオフを実証的に解放し、平等な機会のために無償の公平性を得ることができます。
論文 参考訳(メタデータ) (2022-02-01T22:12:17Z) - Latent Space Smoothing for Individually Fair Representations [12.739528232133495]
本稿では,高次元データの個々人の公正性を証明するための最初の表現学習手法LASSIを紹介する。
我々の重要な洞察は、生成的モデリングの最近の進歩を活用して、生成的潜在空間における類似した個人の集合を捉えることである。
ランダムな平滑化を用いて、類似した個人を密にマッピングし、ダウンストリームアプリケーションの局所ロバスト性検証がエンドツーエンドの公正性認証をもたらすことを保証します。
論文 参考訳(メタデータ) (2021-11-26T18:22:42Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Learning Smooth and Fair Representations [24.305894478899948]
本稿では,特徴量と感性属性との相関関係を,公平な表現空間にマッピングすることで事前に除去する能力について検討する。
実験により,表現分布の平滑化は公平性証明の一般化保証を提供することがわかった。
表現分布の平滑化は、表現学習における最先端手法と比較して下流タスクの精度を低下させるものではない。
論文 参考訳(メタデータ) (2020-06-15T21:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。