論文の概要: Certifying the Fairness of KNN in the Presence of Dataset Bias
- arxiv url: http://arxiv.org/abs/2307.08722v1
- Date: Mon, 17 Jul 2023 07:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 18:00:12.308235
- Title: Certifying the Fairness of KNN in the Presence of Dataset Bias
- Title(参考訳): データセットバイアスの有無によるKNNの公正性の検証
- Authors: Yannan Li, Jingbo Wang, and Chao Wang
- Abstract要約: 我々は、広く使われている教師付き学習アルゴリズムk-nearest neighbors(KNN)の分類結果の公平性を検証する方法を提案する。
これは、Fairness定義の3つの変種(個人フェアネス、$epsilon$-fairness、ラベルフリップフェアネス)に基づいて、KNNの最初の認証方法である。
本研究では,この抽象解釈に基づく手法の有効性を,フェアネス研究文献で広く用いられている6つのデータセットの実験的評価を通じて示す。
- 参考スコア(独自算出の注目度): 8.028344363418865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a method for certifying the fairness of the classification result
of a widely used supervised learning algorithm, the k-nearest neighbors (KNN),
under the assumption that the training data may have historical bias caused by
systematic mislabeling of samples from a protected minority group. To the best
of our knowledge, this is the first certification method for KNN based on three
variants of the fairness definition: individual fairness, $\epsilon$-fairness,
and label-flipping fairness. We first define the fairness certification problem
for KNN and then propose sound approximations of the complex arithmetic
computations used in the state-of-the-art KNN algorithm. This is meant to lift
the computation results from the concrete domain to an abstract domain, to
reduce the computational cost. We show effectiveness of this abstract
interpretation based technique through experimental evaluation on six datasets
widely used in the fairness research literature. We also show that the method
is accurate enough to obtain fairness certifications for a large number of test
inputs, despite the presence of historical bias in the datasets.
- Abstract(参考訳): そこで本研究では,保護された少数集団のサンプルの系統的誤ラベルによる履歴バイアスを前提として,広く使用されている教師付き学習アルゴリズムであるk-nearest neighbors(KNN)の分類結果の公平性を検証する手法を提案する。
私たちの知る限りでは、これはフェアネス定義の3つの変種(個別フェアネス、$\epsilon$-fairness、ラベルフリッピングフェアネス)に基づく最初のnnの認定方法である。
まず、KNNの公平性証明問題を定義し、次に最先端のKNNアルゴリズムで用いられる複素演算の音響近似を提案する。
これは、計算結果を具体的なドメインから抽象ドメインに引き上げ、計算コストを削減することを目的としている。
本稿では,この抽象解釈に基づく手法の有効性を,フェアネス研究で広く用いられている6つのデータセットの実験的評価を通して示す。
また,この手法は,データセットに歴史的バイアスが存在するにもかかわらず,多数のテスト入力に対して公平性認定を得るのに十分な精度を示す。
関連論文リスト
- FairQuant: Certifying and Quantifying Fairness of Deep Neural Networks [6.22084835644296]
本稿では,ディープニューラルネットワーク(DNN)の個人的公正性を正式に証明し,定量化する手法を提案する。
個人的公正性は、法的に保護された属性(例えば、性別や人種)を除いて同一の2つの個人が同じ処置を受けることを保証している。
提案手法を実装し,4つの人気フェアネス研究データセットを用いて評価した。
論文 参考訳(メタデータ) (2024-09-05T03:36:05Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Provable Fairness for Neural Network Models using Formal Verification [10.90121002896312]
本稿では,ニューラルネットワークモデルの特性を検証する形式的手法を用いて,公平性を向上する手法を提案する。
適切なトレーニングによって、AUCスコアの1%未満のコストで、平均65.4%の不公平さを削減できることを示す。
論文 参考訳(メタデータ) (2022-12-16T16:54:37Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - FARE: Provably Fair Representation Learning with Practical Certificates [9.242965489146398]
FARE(FARE)は,実用的公平性証明を備えたFRL法である。
FAREは,エンコーダの表現空間を制限することで,現実的な保証の導出を可能にするという重要な知見に基づいている。
FAREは、厳密で、純粋に経験的な結果に匹敵する、実用的な証明書を生成する。
論文 参考訳(メタデータ) (2022-10-13T17:40:07Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Fairness-Aware Naive Bayes Classifier for Data with Multiple Sensitive
Features [0.0]
2-naive-Bayes (2NB) をN-naive-Bayes (NNB) に一般化し、データ中の2つのセンシティブなグループを仮定することの単純化を回避する。
本稿では,複数の感度特徴を持つデータへの適用について検討し,差分フェアネスを強制する新しい制約・後処理ルーチンを提案する。
論文 参考訳(メタデータ) (2022-02-23T13:32:21Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。