論文の概要: Fairness Constraints in Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2009.06190v1
- Date: Mon, 14 Sep 2020 04:25:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:32:09.494016
- Title: Fairness Constraints in Semi-supervised Learning
- Title(参考訳): 半教師付き学習における公正制約
- Authors: Tao Zhang, Tianqing Zhu, Mengde Han, Jing Li, Wanlei Zhou, Philip S.
Yu
- Abstract要約: 我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
- 参考スコア(独自算出の注目度): 56.48626493765908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in machine learning has received considerable attention. However,
most studies on fair learning focus on either supervised learning or
unsupervised learning. Very few consider semi-supervised settings. Yet, in
reality, most machine learning tasks rely on large datasets that contain both
labeled and unlabeled data. One of key issues with fair learning is the balance
between fairness and accuracy. Previous studies arguing that increasing the
size of the training set can have a better trade-off. We believe that
increasing the training set with unlabeled data may achieve the similar result.
Hence, we develop a framework for fair semi-supervised learning, which is
formulated as an optimization problem. This includes classifier loss to
optimize accuracy, label propagation loss to optimize unlabled data prediction,
and fairness constraints over labeled and unlabeled data to optimize the
fairness level. The framework is conducted in logistic regression and support
vector machines under the fairness metrics of disparate impact and disparate
mistreatment. We theoretically analyze the source of discrimination in
semi-supervised learning via bias, variance and noise decomposition. Extensive
experiments show that our method is able to achieve fair semi-supervised
learning, and reach a better trade-off between accuracy and fairness than fair
supervised learning.
- Abstract(参考訳): 機械学習の公平性が注目されている。
しかし、フェアラーニングに関するほとんどの研究は、教師なし学習または教師なし学習に焦点を当てている。
半監督設定を考える人はごくわずかである。
しかし実際には、ほとんどの機械学習タスクはラベル付きデータとラベルなしデータの両方を含む大きなデータセットに依存している。
公正学習の大きな問題のひとつは、公平性と正確性のバランスにある。
トレーニングセットのサイズを増やすことは、よりよいトレードオフをもたらす可能性がある、というこれまでの研究。
ラベルのないデータでトレーニングセットを増やせば、同様の結果が得られると考えています。
そこで我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
これには、精度を最適化する分類器の損失、ラベル付きデータ予測を最適化するラベル伝搬損失、ラベル付きデータとラベルなしデータの公正度を最適化するフェアネス制約が含まれる。
このフレームワークはロジスティック回帰において実行され、異なる影響と異なる不適切な処理の公平度尺度の下でベクターマシンをサポートする。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
広範な実験により,本手法は公平な半教師付き学習を実現することができ,公平な教師付き学習よりも正確さと公平さのトレードオフが達成できることが示された。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。