論文の概要: FARE: Provably Fair Representation Learning with Practical Certificates
- arxiv url: http://arxiv.org/abs/2210.07213v2
- Date: Thu, 8 Jun 2023 13:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 20:31:13.466757
- Title: FARE: Provably Fair Representation Learning with Practical Certificates
- Title(参考訳): 運賃:実用証明書による公平な表現学習
- Authors: Nikola Jovanovi\'c, Mislav Balunovi\'c, Dimitar I. Dimitrov, Martin
Vechev
- Abstract要約: FARE(FARE)は,実用的公平性証明を備えたFRL法である。
FAREは,エンコーダの表現空間を制限することで,現実的な保証の導出を可能にするという重要な知見に基づいている。
FAREは、厳密で、純粋に経験的な結果に匹敵する、実用的な証明書を生成する。
- 参考スコア(独自算出の注目度): 9.242965489146398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair representation learning (FRL) is a popular class of methods aiming to
produce fair classifiers via data preprocessing. Recent regulatory directives
stress the need for FRL methods that provide practical certificates, i.e.,
provable upper bounds on the unfairness of any downstream classifier trained on
preprocessed data, which directly provides assurance in a practical scenario.
Creating such FRL methods is an important challenge that remains unsolved. In
this work, we address that challenge and introduce FARE (Fairness with
Restricted Encoders), the first FRL method with practical fairness
certificates. FARE is based on our key insight that restricting the
representation space of the encoder enables the derivation of practical
guarantees, while still permitting favorable accuracy-fairness tradeoffs for
suitable instantiations, such as one we propose based on fair trees. To produce
a practical certificate, we develop and apply a statistical procedure that
computes a finite sample high-confidence upper bound on the unfairness of any
downstream classifier trained on FARE embeddings. In our comprehensive
experimental evaluation, we demonstrate that FARE produces practical
certificates that are tight and often even comparable with purely empirical
results obtained by prior methods, which establishes the practical value of our
approach.
- Abstract(参考訳): Fair Expression Learning (FRL) は、データ前処理による公平な分類器の作成を目的とした一般的な手法である。
最近の規制指令では、実践的な証明書を提供するfrlメソッドの必要性、すなわち、事前処理されたデータに基づいて訓練された下流の分類器の不公平さの上限を証明できることが強調されている。
このようなFRLメソッドの作成は、未解決の重要な課題である。
本研究では,FARE(Fairness with Restricted Encoders)を導入し,実際のフェアネス証明を備えたFRL法を提案する。
FAREは、エンコーダの表現空間を制限することで、実用的な保証の導出が可能でありながら、フェアツリーなど、適切なインスタンス化のための適切な精度・公正トレードオフを許容できるというキーとなる洞察に基づいています。
実践的な証明書を作成するために, 運賃埋め込みで訓練された下流分類器の不正性について, 有限サンプルの信頼度を上限として計算する統計手順を開発し, 適用する。
総合的な実験評価において,FAREは従来手法で得られた純粋に経験的な結果と厳密で,場合によっては同等の実用証明書を作成した。
関連論文リスト
- Back to the Drawing Board for Fair Representation Learning [2.7379431425414684]
フェア表現学習(FRL)手法の評価は,下流のフェアネスと1つのタスクに対する精度のトレードオフに主眼を置いている。
本研究では,この手法がFRLの当初の動機と根本的に一致していないことを論じる。
適切な評価手順が満たすべき4つの基準を満たすベンチマークであるTransFairを提案する。
論文 参考訳(メタデータ) (2024-05-28T13:23:04Z) - A Channel-ensemble Approach: Unbiased and Low-variance Pseudo-labels is Critical for Semi-supervised Classification [61.473485511491795]
半教師付き学習(SSL)はコンピュータビジョンにおける実践的な課題である。
Pseudo-label (PL) メソッド、例えば FixMatch や FreeMatch は SSL で State of The Art (SOTA) のパフォーマンスを取得する。
本稿では,複数の下位PLを理論的に保証された非偏りと低分散のPLに集約する,軽量なチャネルベースアンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:49:37Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Certifying the Fairness of KNN in the Presence of Dataset Bias [8.028344363418865]
我々は、広く使われている教師付き学習アルゴリズムk-nearest neighbors(KNN)の分類結果の公平性を検証する方法を提案する。
これは、Fairness定義の3つの変種(個人フェアネス、$epsilon$-fairness、ラベルフリップフェアネス)に基づいて、KNNの最初の認証方法である。
本研究では,この抽象解釈に基づく手法の有効性を,フェアネス研究文献で広く用いられている6つのデータセットの実験的評価を通じて示す。
論文 参考訳(メタデータ) (2023-07-17T07:09:55Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Certifying Some Distributional Fairness with Subpopulation Decomposition [20.009388617013986]
まず、最適化問題として、与えられたデータ分布に基づいて訓練されたMLモデルの正当性を定式化する。
次に、一般的な公平性認定フレームワークを提案し、センシティブなシフトと一般的なシフトの両方のシナリオでインスタンス化する。
我々のフレームワークは、追加の非スキューネス制約を統合する柔軟性があり、異なる実世界のシナリオ下でさらに厳密な認証を提供することを示す。
論文 参考訳(メタデータ) (2022-05-31T01:17:50Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - RATT: Leveraging Unlabeled Data to Guarantee Generalization [96.08979093738024]
ラベルのないデータを利用して一般化境界を生成する手法を紹介します。
境界が0-1経験的リスク最小化に有効であることを証明します。
この作業は、見えないラベル付きデータが利用できない場合でも、ディープネットの一般化を証明するためのオプションを実践者に提供します。
論文 参考訳(メタデータ) (2021-05-01T17:05:29Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Certified Distributional Robustness on Smoothed Classifiers [27.006844966157317]
本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
論文 参考訳(メタデータ) (2020-10-21T13:22:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。