論文の概要: FARE: Provably Fair Representation Learning
- arxiv url: http://arxiv.org/abs/2210.07213v1
- Date: Thu, 13 Oct 2022 17:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 15:17:15.656472
- Title: FARE: Provably Fair Representation Learning
- Title(参考訳): FARE: おそらく公正な表現学習
- Authors: Nikola Jovanovi\'c, Mislav Balunovi\'c, Dimitar I. Dimitrov, Martin
Vechev
- Abstract要約: 下流分類器の不公平性に高信頼な上限を演算する実用的な統計手法を開発し,適用する。
FAREは、しばしば先行メソッドの実証結果に匹敵する厳密な上界を生成する。
- 参考スコア(独自算出の注目度): 9.242965489146398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair representation learning (FRL) is a popular class of methods aiming to
produce fair classifiers via data preprocessing. However, recent work has shown
that prior methods achieve worse accuracy-fairness tradeoffs than originally
suggested by their results. This dictates the need for FRL methods that provide
provable upper bounds on unfairness of any downstream classifier, a challenge
yet unsolved. In this work we address this challenge and propose Fairness with
Restricted Encoders (FARE), the first FRL method with provable fairness
guarantees. Our key insight is that restricting the representation space of the
encoder enables us to derive suitable fairness guarantees, while allowing
empirical accuracy-fairness tradeoffs comparable to prior work. FARE
instantiates this idea with a tree-based encoder, a choice motivated by
inherent advantages of decision trees when applied in our setting. Crucially,
we develop and apply a practical statistical procedure that computes a
high-confidence upper bound on the unfairness of any downstream classifier. In
our experimental evaluation on several datasets and settings we demonstrate
that FARE produces tight upper bounds, often comparable with empirical results
of prior methods, which establishes the practical value of our approach.
- Abstract(参考訳): Fair Expression Learning (FRL) は、データ前処理による公平な分類器の作成を目的とした一般的な手法である。
しかし、最近の研究により、従来の手法はもともと提案された結果よりも精度と公平性のトレードオフを悪化させることが示されている。
これは、ダウンストリーム分類器の不公平性の証明可能な上限を提供するFRL法の必要性を規定している。
本研究では、この課題に対処し、証明可能な公正性を保証する最初のFRL法であるFairness with Restricted Encoders (FARE)を提案する。
重要な洞察は、エンコーダの表現空間を制限することで、事前の作業に匹敵する経験的精度-公正トレードオフを許容しながら、適切な公正性を保証することができるということです。
FAREはこのアイデアをツリーベースのエンコーダでインスタンス化します。
重要な点として,下流の分類者の不公平さを高い信頼度で計算する実用的な統計手法を開発し,適用する。
いくつかのデータセットと設定に関する実験的な評価において、FAREは、しばしば先行手法の実証結果に匹敵する、厳密な上界を創出することを示した。
関連論文リスト
- Back to the Drawing Board for Fair Representation Learning [2.7379431425414684]
フェア表現学習(FRL)手法の評価は,下流のフェアネスと1つのタスクに対する精度のトレードオフに主眼を置いている。
本研究では,この手法がFRLの当初の動機と根本的に一致していないことを論じる。
適切な評価手順が満たすべき4つの基準を満たすベンチマークであるTransFairを提案する。
論文 参考訳(メタデータ) (2024-05-28T13:23:04Z) - A Channel-ensemble Approach: Unbiased and Low-variance Pseudo-labels is Critical for Semi-supervised Classification [61.473485511491795]
半教師付き学習(SSL)はコンピュータビジョンにおける実践的な課題である。
Pseudo-label (PL) メソッド、例えば FixMatch や FreeMatch は SSL で State of The Art (SOTA) のパフォーマンスを取得する。
本稿では,複数の下位PLを理論的に保証された非偏りと低分散のPLに集約する,軽量なチャネルベースアンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:49:37Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Certifying the Fairness of KNN in the Presence of Dataset Bias [8.028344363418865]
我々は、広く使われている教師付き学習アルゴリズムk-nearest neighbors(KNN)の分類結果の公平性を検証する方法を提案する。
これは、Fairness定義の3つの変種(個人フェアネス、$epsilon$-fairness、ラベルフリップフェアネス)に基づいて、KNNの最初の認証方法である。
本研究では,この抽象解釈に基づく手法の有効性を,フェアネス研究文献で広く用いられている6つのデータセットの実験的評価を通じて示す。
論文 参考訳(メタデータ) (2023-07-17T07:09:55Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Certifying Some Distributional Fairness with Subpopulation Decomposition [20.009388617013986]
まず、最適化問題として、与えられたデータ分布に基づいて訓練されたMLモデルの正当性を定式化する。
次に、一般的な公平性認定フレームワークを提案し、センシティブなシフトと一般的なシフトの両方のシナリオでインスタンス化する。
我々のフレームワークは、追加の非スキューネス制約を統合する柔軟性があり、異なる実世界のシナリオ下でさらに厳密な認証を提供することを示す。
論文 参考訳(メタデータ) (2022-05-31T01:17:50Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - RATT: Leveraging Unlabeled Data to Guarantee Generalization [96.08979093738024]
ラベルのないデータを利用して一般化境界を生成する手法を紹介します。
境界が0-1経験的リスク最小化に有効であることを証明します。
この作業は、見えないラベル付きデータが利用できない場合でも、ディープネットの一般化を証明するためのオプションを実践者に提供します。
論文 参考訳(メタデータ) (2021-05-01T17:05:29Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Certified Distributional Robustness on Smoothed Classifiers [27.006844966157317]
本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
論文 参考訳(メタデータ) (2020-10-21T13:22:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。