論文の概要: Mitigating Source Bias for Fairer Weak Supervision
- arxiv url: http://arxiv.org/abs/2303.17713v1
- Date: Thu, 30 Mar 2023 21:16:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 15:58:01.879457
- Title: Mitigating Source Bias for Fairer Weak Supervision
- Title(参考訳): Fairer Weak Supervisionのソースバイアスの緩和
- Authors: Changho Shin, Sonia Cromp, Dyah Adila, Frederic Sala
- Abstract要約: 弱みの監督はラベルのボトルネックを克服し、トレーニングセットの効率的な開発を可能にします。
しかし、弱い監督を魅力的なものにする技術は、それが生成する擬似ラベルが非常に偏りがあることを保証する。
本手法は, 人口格差を82.5%削減しつつ, 弱監督基準の精度を最大32%向上させることを示す。
- 参考スコア(独自算出の注目度): 8.750013122690373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weak supervision overcomes the label bottleneck, enabling efficient
development of training sets. Millions of models trained on such datasets have
been deployed in the real world and interact with users on a daily basis.
However, the techniques that make weak supervision attractive -- such as
integrating any source of signal to estimate unknown labels -- also ensure that
the pseudolabels it produces are highly biased. Surprisingly, given everyday
use and the potential for increased bias, weak supervision has not been studied
from the point of view of fairness. This work begins such a study. Our
departure point is the observation that even when a fair model can be built
from a dataset with access to ground-truth labels, the corresponding dataset
labeled via weak supervision can be arbitrarily unfair. Fortunately, not all is
lost: we propose and empirically validate a model for source unfairness in weak
supervision, then introduce a simple counterfactual fairness-based technique
that can mitigate these biases. Theoretically, we show that it is possible for
our approach to simultaneously improve both accuracy and fairness metrics -- in
contrast to standard fairness approaches that suffer from tradeoffs.
Empirically, we show that our technique improves accuracy on weak supervision
baselines by as much as 32% while reducing demographic parity gap by 82.5%.
- Abstract(参考訳): 弱監督はラベルボトルネックを克服し、トレーニングセットの効率的な開発を可能にする。
このようなデータセットでトレーニングされた数百万のモデルが現実世界にデプロイされ、毎日ユーザと対話している。
しかし、弱い監督を魅力的にする技術 -- 未知のラベルを推定するために信号のソースを統合するなど -- は、それが生成する擬似ラベルが非常に偏りがあることを保証する。
驚いたことに、日常の使用とバイアスの増加の可能性を考えると、公正の観点からは、弱い監督は研究されていない。
この研究はそのような研究から始まる。
我々の出発点は、地平線ラベルにアクセス可能なデータセットから公正なモデルを構築することができても、弱い監督によってラベル付けされた対応するデータセットは、任意に不公平であることです。
幸運なことに、すべてが失われるわけではない:弱い監督下でソースの不公平なモデルを提案し、実証的に検証し、これらのバイアスを緩和できる単純な反実的公正に基づく手法を導入する。
理論的には、トレードオフに苦しむ標準的な公正なアプローチとは対照的に、精度と公平性の両方を同時に改善することが可能である。
本手法は,人口格差を82.5%削減しつつ,弱監督基準の精度を最大32%向上させることを実証的に示す。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Mitigating Label Bias in Machine Learning: Fairness through Confident
Learning [22.031325797588476]
偏見のないラベルが潜在的なバイアスを持つエージェントによって上書きされると、識別が生じることがある。
本稿では,自信ある学習の枠組みの中で,最も公平なインスタンスをフィルタリングすることで,バイアスを排除できることを実証する。
論文 参考訳(メタデータ) (2023-12-14T08:55:38Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。