論文の概要: De-biased Representation Learning for Fairness with Unreliable Labels
- arxiv url: http://arxiv.org/abs/2208.00651v1
- Date: Mon, 1 Aug 2022 07:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:17:46.818949
- Title: De-biased Representation Learning for Fairness with Unreliable Labels
- Title(参考訳): 信頼できないラベルを用いた不偏表現学習
- Authors: Yixuan Zhang, Feng Zhou, Zhidong Li, Yang Wang, Fang Chen
- Abstract要約: 我々はtextbfFairness (DBRF) フレームワークのための textbfDe-textbfBiased textbfRepresentation Learning を提案する。
我々は、情報理論の概念を用いて、情報の相互性や情報のボトルネックといった非バイアス学習の枠組みを定式化する。
合成データと実世界データの両方に対する実験結果から,DBRFは理想ラベルに対する非バイアス表現を効果的に学習することを示した。
- 参考スコア(独自算出の注目度): 22.794504690957414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Removing bias while keeping all task-relevant information is challenging for
fair representation learning methods since they would yield random or
degenerate representations w.r.t. labels when the sensitive attributes
correlate with labels. Existing works proposed to inject the label information
into the learning procedure to overcome such issues. However, the assumption
that the observed labels are clean is not always met. In fact, label bias is
acknowledged as the primary source inducing discrimination. In other words, the
fair pre-processing methods ignore the discrimination encoded in the labels
either during the learning procedure or the evaluation stage. This
contradiction puts a question mark on the fairness of the learned
representations. To circumvent this issue, we explore the following question:
\emph{Can we learn fair representations predictable to latent ideal fair labels
given only access to unreliable labels?} In this work, we propose a
\textbf{D}e-\textbf{B}iased \textbf{R}epresentation Learning for
\textbf{F}airness (DBRF) framework which disentangles the sensitive information
from non-sensitive attributes whilst keeping the learned representations
predictable to ideal fair labels rather than observed biased ones. We formulate
the de-biased learning framework through information-theoretic concepts such as
mutual information and information bottleneck. The core concept is that DBRF
advocates not to use unreliable labels for supervision when sensitive
information benefits the prediction of unreliable labels. Experiment results
over both synthetic and real-world data demonstrate that DBRF effectively
learns de-biased representations towards ideal labels.
- Abstract(参考訳): 全てのタスク関連情報を保持しながらバイアスを取り除くことは、正当表現学習法では、センシティブ属性がラベルと相関するときに、ランダムまたは退化表現w.r.t.ラベルを生成するため、困難である。
このような問題を克服するために、ラベル情報を学習手順に注入する既存の作業が提案されている。
しかし、観測されたラベルがクリーンであるという仮定は必ずしも満たされない。
実際、ラベルバイアスは差別を誘発する主要な源として認識されている。
言い換えると、公正な前処理方法は、学習手順または評価段階中にラベルに符号化された識別を無視する。
この矛盾は、学習された表現の公平さに疑問符を打つ。
この問題を回避するために、我々は以下の質問を探索する: \emph{Can我々は信頼できないラベルのみにアクセスすると、潜在理想のフェアラベルに予測可能なフェア表現を学ぶ。
本稿では,非感受性属性からセンシティブな情報を分離し,観察されたバイアスのある属性よりも理想的フェアラベルに予測可能な表現を保ちながら,非感受性属性からセンシティブな情報を分離する, \textbf{d}e-\textbf{b}iased \textbf{r}epresentation learning for \textbf{f}airness (dbrf)フレームワークを提案する。
相互情報や情報のボトルネックといった情報理論的な概念を通して、偏りのない学習枠組みを定式化する。
DBRFの中核となる概念は、機密情報が信頼できないラベルの予測に利益をもたらす場合、信頼できないラベルを監督するために使用しないことを提唱することである。
合成データと実世界データの両方に対する実験結果から,DBRFは理想ラベルに対する非バイアス表現を効果的に学習することを示した。
関連論文リスト
- You can't handle the (dirty) truth: Data-centric insights improve pseudo-labeling [60.27812493442062]
擬似ラベル法を改善するためにラベル付きデータ品質を調査することが重要であることを示す。
具体的には、擬似ラベルの拡張のために、DIPSと呼ばれる新しいデータキャラクタリゼーションと選択フレームワークを導入する。
本研究では,多種多様な実世界のデータセットを対象とした擬似ラベル手法に対するDIPSの適用性と影響を実証する。
論文 参考訳(メタデータ) (2024-06-19T17:58:40Z) - Mitigating Label Bias via Decoupled Confident Learning [14.001915875687862]
アルゴリズムの公平性に関する懸念が高まり、アルゴリズムのバイアスを軽減する手法が急増した。
ラベルのバイアスは、医療、雇用、コンテンツモデレーションを含む重要な領域に広まっています。
本稿では,ラベルバイアスを緩和するためのプルーニング手法,Decoupled Confident Learning (DeCoLe)を提案する。
論文 参考訳(メタデータ) (2023-07-18T03:28:03Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Fairness and Bias in Truth Discovery Algorithms: An Experimental
Analysis [7.575734557466221]
群衆労働者は信頼できないラベルを提供することもある。
真理探索(TD)アルゴリズムを用いて、競合するワーカー応答からコンセンサスラベルを決定する。
我々はTDアルゴリズムのバイアスと公平性を体系的に研究する。
論文 参考訳(メタデータ) (2023-04-25T04:56:35Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Instance Correction for Learning with Open-set Noisy Labels [145.06552420999986]
オープンセットノイズラベルの処理にはサンプル選択方式を用いる。
廃棄されたデータは間違ったラベルで書かれており、トレーニングには参加していない。
廃棄されたデータのインスタンスを変更して、廃棄されたデータの予測をラベルに一致させる。
論文 参考訳(メタデータ) (2021-06-01T13:05:55Z) - Exploiting Context for Robustness to Label Noise in Active Learning [47.341705184013804]
本稿では,どのラベルが間違っているのかをシステムがどのように識別するか,ラベルノイズの負の影響を最小限に抑えるために,マルチクラスアクティブラーニングシステムをどのように適用できるか,といった課題に対処する。
我々は、これらの関係を符号化し、ノイズラベルが利用できる場合にグラフ上の新しい信念を得るために、ラベルなしデータのグラフィカルな表現を構築した。
これはシーン分類、アクティビティ分類、文書分類の3つの異なる応用で実証されている。
論文 参考訳(メタデータ) (2020-10-18T18:59:44Z) - Debiased Contrastive Learning [64.98602526764599]
我々は,同ラベルデータポイントのサンプリングを補正する,偏りのあるコントラスト目的の開発を行う。
実証的に、提案する目的は、視覚、言語、強化学習ベンチマークにおける表現学習の最先端を一貫して上回る。
論文 参考訳(メタデータ) (2020-07-01T04:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。