論文の概要: Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination
- arxiv url: http://arxiv.org/abs/2009.12040v1
- Date: Fri, 25 Sep 2020 05:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 22:21:17.389750
- Title: Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination
- Title(参考訳): セミ教師付き学習における公正性: ラベルなしデータによる識別の低減
- Authors: Tao Zhang, Tianqing Zhu, Jing Li, Mengde Han, Wanlei Zhou, and Philip
S. Yu
- Abstract要約: 機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
- 参考スコア(独自算出の注目度): 53.3082498402884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A growing specter in the rise of machine learning is whether the decisions
made by machine learning models are fair. While research is already underway to
formalize a machine-learning concept of fairness and to design frameworks for
building fair models with sacrifice in accuracy, most are geared toward either
supervised or unsupervised learning. Yet two observations inspired us to wonder
whether semi-supervised learning might be useful to solve discrimination
problems. First, previous study showed that increasing the size of the training
set may lead to a better trade-off between fairness and accuracy. Second, the
most powerful models today require an enormous of data to train which, in
practical terms, is likely possible from a combination of labeled and unlabeled
data. Hence, in this paper, we present a framework of fair semi-supervised
learning in the pre-processing phase, including pseudo labeling to predict
labels for unlabeled data, a re-sampling method to obtain multiple fair
datasets and lastly, ensemble learning to improve accuracy and decrease
discrimination. A theoretical decomposition analysis of bias, variance and
noise highlights the different sources of discrimination and the impact they
have on fairness in semi-supervised learning. A set of experiments on
real-world and synthetic datasets show that our method is able to use unlabeled
data to achieve a better trade-off between accuracy and discrimination.
- Abstract(参考訳): 機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
フェアネスという機械学習の概念を定式化し、精度を犠牲にして公平なモデルを構築するためのフレームワークを設計するための研究がすでに進行中であるが、ほとんどは教師なしまたは教師なしの学習に向けられている。
しかし、2つの観察から、半教師付き学習が差別問題を解決するのに有用かどうか疑問に思った。
第1に、トレーニングセットのサイズが大きくなると、公正性と精度のトレードオフが改善される可能性がある。
第2に、今日の最も強力なモデルでは、ラベル付きデータとラベルなしデータの組み合わせによって実現可能な、膨大なデータをトレーニングする必要がある。
そこで本稿では,未ラベルデータのラベル予測のための擬似ラベリング,複数の公平データセットを得るための再サンプリング,さらに,精度の向上と識別の低減を目的としたアンサンブル学習といった,前処理段階における公平な半教師付き学習の枠組みを提案する。
バイアス、分散、ノイズの理論的分解分析は、半教師付き学習の公平性に対する異なる差別源とそれらが与える影響を強調する。
実世界および合成データセットに関する一連の実験により,本手法はラベルのないデータを用いて精度と識別のトレードオフを改善することができることを示した。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - On Adversarial Bias and the Robustness of Fair Machine Learning [11.584571002297217]
異なるサイズと分布の群に同じ重要性を与えることで、トレーニングデータにおけるバイアスの影響を防止できることが、ロバストネスと矛盾する可能性があることを示す。
少数のトレーニングデータのサンプリングやラベル付けを制御できる敵は、制約のないモデルで達成できる以上のテスト精度を著しく削減することができる。
我々は、複数のアルゴリズムとベンチマークデータセットに対する攻撃の実証的な評価を通じて、公正な機械学習の堅牢性を分析する。
論文 参考訳(メタデータ) (2020-06-15T18:17:44Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z) - Learning from Discriminatory Training Data [2.1869017389979266]
監視された学習システムは、歴史的データを用いて訓練され、もしデータが差別によって汚染された場合、保護されたグループに対して差別を意図せずに学習する可能性がある。
差別的データセットの訓練にもかかわらず、公正な学習手法は、公正なテストデータセットで良好に機能することを提案する。
論文 参考訳(メタデータ) (2019-12-17T18:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。