論文の概要: Fairness Constraints in Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2009.06190v1
- Date: Mon, 14 Sep 2020 04:25:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:32:09.494016
- Title: Fairness Constraints in Semi-supervised Learning
- Title(参考訳): 半教師付き学習における公正制約
- Authors: Tao Zhang, Tianqing Zhu, Mengde Han, Jing Li, Wanlei Zhou, Philip S.
Yu
- Abstract要約: 我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
- 参考スコア(独自算出の注目度): 56.48626493765908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in machine learning has received considerable attention. However,
most studies on fair learning focus on either supervised learning or
unsupervised learning. Very few consider semi-supervised settings. Yet, in
reality, most machine learning tasks rely on large datasets that contain both
labeled and unlabeled data. One of key issues with fair learning is the balance
between fairness and accuracy. Previous studies arguing that increasing the
size of the training set can have a better trade-off. We believe that
increasing the training set with unlabeled data may achieve the similar result.
Hence, we develop a framework for fair semi-supervised learning, which is
formulated as an optimization problem. This includes classifier loss to
optimize accuracy, label propagation loss to optimize unlabled data prediction,
and fairness constraints over labeled and unlabeled data to optimize the
fairness level. The framework is conducted in logistic regression and support
vector machines under the fairness metrics of disparate impact and disparate
mistreatment. We theoretically analyze the source of discrimination in
semi-supervised learning via bias, variance and noise decomposition. Extensive
experiments show that our method is able to achieve fair semi-supervised
learning, and reach a better trade-off between accuracy and fairness than fair
supervised learning.
- Abstract(参考訳): 機械学習の公平性が注目されている。
しかし、フェアラーニングに関するほとんどの研究は、教師なし学習または教師なし学習に焦点を当てている。
半監督設定を考える人はごくわずかである。
しかし実際には、ほとんどの機械学習タスクはラベル付きデータとラベルなしデータの両方を含む大きなデータセットに依存している。
公正学習の大きな問題のひとつは、公平性と正確性のバランスにある。
トレーニングセットのサイズを増やすことは、よりよいトレードオフをもたらす可能性がある、というこれまでの研究。
ラベルのないデータでトレーニングセットを増やせば、同様の結果が得られると考えています。
そこで我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
これには、精度を最適化する分類器の損失、ラベル付きデータ予測を最適化するラベル伝搬損失、ラベル付きデータとラベルなしデータの公正度を最適化するフェアネス制約が含まれる。
このフレームワークはロジスティック回帰において実行され、異なる影響と異なる不適切な処理の公平度尺度の下でベクターマシンをサポートする。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
広範な実験により,本手法は公平な半教師付き学習を実現することができ,公平な教師付き学習よりも正確さと公平さのトレードオフが達成できることが示された。
関連論文リスト
- Fair Classifiers Without Fair Training: An Influence-Guided Data
Sampling Approach [34.09122690831707]
我々は、機密情報の漏洩を避けるために、公正な訓練アルゴリズムを実装することなく、公正な分類法を学習する。
提案手法の有効性を理論的に検証し,適切な分布シフトを持つデータセット上での従来型トレーニングにより,公平性差の上限とモデル一般化誤差の両方を低減できることを示した。
そこで,本研究では, 学習中のトレーニングデータを段階的に段階的に変化させる, 学習において, 新たなデータの機密属性にアクセスできない, あるいはトレーニングに使用するような, 学習中のトレーニングデータを段階的に変化させる, トラクタブルなソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。