論文の概要: Don't Throw it Away! The Utility of Unlabeled Data in Fair Decision
Making
- arxiv url: http://arxiv.org/abs/2205.04790v2
- Date: Wed, 11 May 2022 14:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 16:46:33.420353
- Title: Don't Throw it Away! The Utility of Unlabeled Data in Fair Decision
Making
- Title(参考訳): さっさと投げるな!
公正意思決定におけるラベルなしデータの有用性
- Authors: Miriam Rateike, Ayan Majumdar, Olga Mineeva, Krishna P. Gummadi,
Isabel Valera
- Abstract要約: そこで本研究では,実用的公正意思決定のための変分オートエンコーダに基づく新しい手法を提案する。
本手法はラベル付きデータとラベルなしデータの両方を活用する非バイアスデータ表現を学習する。
提案手法は,低分散の基底構造に従って最適(フェア)ポリシーに収束する。
- 参考スコア(独自算出の注目度): 14.905698014932488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision making algorithms, in practice, are often trained on data that
exhibits a variety of biases. Decision-makers often aim to take decisions based
on some ground-truth target that is assumed or expected to be unbiased, i.e.,
equally distributed across socially salient groups. In many practical settings,
the ground-truth cannot be directly observed, and instead, we have to rely on a
biased proxy measure of the ground-truth, i.e., biased labels, in the data. In
addition, data is often selectively labeled, i.e., even the biased labels are
only observed for a small fraction of the data that received a positive
decision. To overcome label and selection biases, recent work proposes to learn
stochastic, exploring decision policies via i) online training of new policies
at each time-step and ii) enforcing fairness as a constraint on performance.
However, the existing approach uses only labeled data, disregarding a large
amount of unlabeled data, and thereby suffers from high instability and
variance in the learned decision policies at different times. In this paper, we
propose a novel method based on a variational autoencoder for practical fair
decision-making. Our method learns an unbiased data representation leveraging
both labeled and unlabeled data and uses the representations to learn a policy
in an online process. Using synthetic data, we empirically validate that our
method converges to the optimal (fair) policy according to the ground-truth
with low variance. In real-world experiments, we further show that our training
approach not only offers a more stable learning process but also yields
policies with higher fairness as well as utility than previous approaches.
- Abstract(参考訳): 意思決定アルゴリズムは、実際には、様々なバイアスを示すデータに基づいて訓練されることが多い。
意思決定者は、しばしば、社会的に健全なグループに均等に分散される、または偏見のないと想定される、根本的真実的目標に基づいて決定を下そうとする。
多くの実践的な環境では、地平線を直接観測することはできず、代わりに、データ内の地平線(すなわちバイアス付きラベル)の偏りのあるプロキシ尺度を頼らなければならない。
さらに、データはしばしば選択的にラベル付けされ、例えばバイアスラベルでさえ、ポジティブな判断を受けたデータのごく一部しか観察されない。
ラベルと選択バイアスを克服するために、最近の研究は、確率的かつ探索的な決定政策を学習することを提案する。
一 各段階における新政策のオンライン研修及び
二 パフォーマンスの制約として公正を課すこと。
しかし、既存のアプローチではラベル付きデータのみを使用し、大量のラベル付きデータを無視し、異なるタイミングで学習された決定ポリシーの安定性とばらつきに悩まされる。
本稿では,実用的公正意思決定のための変分オートエンコーダに基づく新しい手法を提案する。
本手法はラベル付きデータとラベルなしデータの両方を活用する非バイアスデータ表現を学習し,その表現を用いてオンラインプロセスでポリシーを学習する。
合成データを用いて,本手法が低分散の接地面に応じて最適(フェア)ポリシーに収束することを実証的に検証した。
実世界の実験では、我々のトレーニングアプローチはより安定した学習プロセスを提供するだけでなく、より公平で実用性の高いポリシーも提供します。
関連論文リスト
- Unlabeled Debiasing in Downstream Tasks via Class-wise Low Variance Regularization [13.773597081543185]
本稿では,組込みのクラスワイドな分散に基づく新しいデバイアス正規化手法を提案する。
提案手法は属性ラベルを必要とせず,属性をターゲットとせず,既存のデバイアス手法の欠点に対処する。
論文 参考訳(メタデータ) (2024-09-29T03:56:50Z) - Partial-Label Regression [54.74984751371617]
部分ラベル学習は、弱い教師付き学習環境であり、各トレーニング例に候補ラベルのセットをアノテートすることができる。
部分ラベル学習に関する従来の研究は、候補ラベルがすべて離散的な分類設定のみに焦点を当てていた。
本稿では,各トレーニング例に実値付き候補ラベルのセットをアノテートした部分ラベル回帰を初めて検討する。
論文 参考訳(メタデータ) (2023-06-15T09:02:24Z) - Fairness and Bias in Truth Discovery Algorithms: An Experimental
Analysis [7.575734557466221]
群衆労働者は信頼できないラベルを提供することもある。
真理探索(TD)アルゴリズムを用いて、競合するワーカー応答からコンセンサスラベルを決定する。
我々はTDアルゴリズムのバイアスと公平性を体系的に研究する。
論文 参考訳(メタデータ) (2023-04-25T04:56:35Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Weighted Distillation with Unlabeled Examples [15.825078347452024]
ラベルなし例による蒸留は、ラベル付きデータの量を制限する設定において、ディープニューラルネットワークをトレーニングするための一般的で強力な方法である。
本稿では, 蒸留訓練のパラダイムに合わせて, 学生の損失関数の再重み付けに基づいて, この問題に対処するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-13T04:08:56Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - How to Leverage Unlabeled Data in Offline Reinforcement Learning [125.72601809192365]
オフライン強化学習(RL)は、静的データセットから制御ポリシーを学ぶことができるが、標準のRLメソッドと同様に、移行毎に報酬アノテーションを必要とする。
1つの自然な解決策は、ラベル付けされたデータから報酬関数を学習し、ラベル付けされていないデータをラベル付けすることである。
ラベルのないデータに単純に報酬をゼロにする方が、効果的なデータ共有につながる。
論文 参考訳(メタデータ) (2022-02-03T18:04:54Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - A Ranking Approach to Fair Classification [11.35838396538348]
アルゴリズムによる意思決定システムは、雇用、学校入学、ローン承認などの分野でますます使われている。
多くのシナリオでは、ゼロ・トゥルース・ラベルは利用できなくなり、代わりに人間による決定の結果、不完全なラベルにしかアクセスできません。
本稿では,従来の分類アルゴリズムの代替として,公平なランク付けに基づく意思決定システムを提案する。
論文 参考訳(メタデータ) (2021-02-08T22:51:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。