論文の概要: iFlipper: Label Flipping for Individual Fairness
- arxiv url: http://arxiv.org/abs/2209.07047v1
- Date: Thu, 15 Sep 2022 05:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 13:35:03.266936
- Title: iFlipper: Label Flipping for Individual Fairness
- Title(参考訳): iFlipper: 個別のフェアネスのためのラベルフリップ
- Authors: Hantian Zhang, Ki Hyun Tae, Jaeyoung Park, Xu Chu, Steven Euijong
Whang
- Abstract要約: ラベルフリップは個人の公正性を改善するための効果的な前処理手法であることを示す。
近似線形プログラミングアルゴリズムを提案し、その解が最適解にどの程度近いかを理論的に保証する。
実際のデータセットの実験では、iFlipperは個々の公正性の観点から、他の前処理ベースラインを大幅に上回っている。
- 参考スコア(独自算出の注目度): 16.50058737985628
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning becomes prevalent, mitigating any unfairness present in
the training data becomes critical. Among the various notions of fairness, this
paper focuses on the well-known individual fairness, which states that similar
individuals should be treated similarly. While individual fairness can be
improved when training a model (in-processing), we contend that fixing the data
before model training (pre-processing) is a more fundamental solution. In
particular, we show that label flipping is an effective pre-processing
technique for improving individual fairness. Our system iFlipper solves the
optimization problem of minimally flipping labels given a limit to the
individual fairness violations, where a violation occurs when two similar
examples in the training data have different labels. We first prove that the
problem is NP-hard. We then propose an approximate linear programming algorithm
and provide theoretical guarantees on how close its result is to the optimal
solution in terms of the number of label flips. We also propose techniques for
making the linear programming solution more optimal without exceeding the
violations limit. Experiments on real datasets show that iFlipper significantly
outperforms other pre-processing baselines in terms of individual fairness and
accuracy on unseen test sets. In addition, iFlipper can be combined with
in-processing techniques for even better results.
- Abstract(参考訳): 機械学習が普及するにつれて、トレーニングデータに存在する不公平さの軽減が重要になる。
公平性に関する様々な概念のうち、本論文はよく知られた個々人の公平性に焦点をあて、同様の個性は同じように扱うべきであると述べる。
モデル(インプロセス)のトレーニングでは、個々の公平性が向上しますが、モデルトレーニング(プリプロセス)の前にデータを修正することは、より基本的なソリューションである、と私たちは主張します。
特に,ラベルフリップは,個人の公正性向上に有効な事前処理手法であることを示す。
我々のシステムiFlipperは、トレーニングデータに類似した2つのサンプルが異なるラベルを持つ場合の、個々の公正違反に制限されたラベルを最小に反転する最適化問題を解く。
まず、問題はNPハードであることを証明する。
次に、近似線形プログラミングアルゴリズムを提案し、ラベルフリップ数の観点から、その結果が最適解にどの程度近いかを理論的に保証する。
また,違反の限界を超えることなく線形計画法をより最適にする手法を提案する。
実際のデータセットの実験では、iFlipperは未確認のテストセットの個々の公正性と正確性の観点から、他の前処理ベースラインを大幅に上回っている。
さらにiflipperは、より良い結果を得るために、処理中のテクニックと組み合わせられる。
関連論文リスト
- Improving Fair Training under Correlation Shifts [33.385118640843416]
特にラベルとセンシティブなグループ間のバイアスが変化すると、トレーニングされたモデルの公平性に直接影響し、悪化する可能性がある。
既存のプロセス内フェアアルゴリズムは、精度とグループフェアネスに根本的な限界があることを解析的に示す。
相関シフトを減らすために入力データをサンプリングする新しい前処理ステップを提案する。
論文 参考訳(メタデータ) (2023-02-05T07:23:35Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Communication-Efficient Robust Federated Learning with Noisy Labels [144.31995882209932]
フェデレーテッド・ラーニング(FL)は、分散した位置データの上で、将来性のあるプライバシ保護機械学習パラダイムである。
FLにおける雑音ラベルの効果を緩和する学習に基づく再重み付け手法を提案する。
提案手法は,複数の実世界のデータセットにおいて,各種ベースラインと比較して優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-11T16:21:17Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - A Pre-processing Method for Fairness in Ranking [0.0]
本稿では,データの順序を相互に評価する公平なランキングフレームワークを提案する。
提案手法は,実世界のデータセットに対する精度と公平性のトレードオフにおいて,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-29T02:55:32Z) - Post-processing for Individual Fairness [23.570995756189266]
アルゴリズムフェアネスにおける後処理は、すでに実運用で使用されているMLシステムのバイアスを修正するための汎用的なアプローチである。
学習者が元のモデルの予測と個人間の類似性グラフにのみアクセスでき、所望の公正性制約を導出できるような設定を考える。
提案アルゴリズムは,BERTなどの大規模NLPモデルにおいて,精度を保ちながら個々のバイアスを補正する。
論文 参考訳(メタデータ) (2021-10-26T15:51:48Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。