論文の概要: Don't Throw it Away! The Utility of Unlabeled Data in Fair Decision
Making
- arxiv url: http://arxiv.org/abs/2205.04790v2
- Date: Wed, 11 May 2022 14:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 16:46:33.420353
- Title: Don't Throw it Away! The Utility of Unlabeled Data in Fair Decision
Making
- Title(参考訳): さっさと投げるな!
公正意思決定におけるラベルなしデータの有用性
- Authors: Miriam Rateike, Ayan Majumdar, Olga Mineeva, Krishna P. Gummadi,
Isabel Valera
- Abstract要約: そこで本研究では,実用的公正意思決定のための変分オートエンコーダに基づく新しい手法を提案する。
本手法はラベル付きデータとラベルなしデータの両方を活用する非バイアスデータ表現を学習する。
提案手法は,低分散の基底構造に従って最適(フェア)ポリシーに収束する。
- 参考スコア(独自算出の注目度): 14.905698014932488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision making algorithms, in practice, are often trained on data that
exhibits a variety of biases. Decision-makers often aim to take decisions based
on some ground-truth target that is assumed or expected to be unbiased, i.e.,
equally distributed across socially salient groups. In many practical settings,
the ground-truth cannot be directly observed, and instead, we have to rely on a
biased proxy measure of the ground-truth, i.e., biased labels, in the data. In
addition, data is often selectively labeled, i.e., even the biased labels are
only observed for a small fraction of the data that received a positive
decision. To overcome label and selection biases, recent work proposes to learn
stochastic, exploring decision policies via i) online training of new policies
at each time-step and ii) enforcing fairness as a constraint on performance.
However, the existing approach uses only labeled data, disregarding a large
amount of unlabeled data, and thereby suffers from high instability and
variance in the learned decision policies at different times. In this paper, we
propose a novel method based on a variational autoencoder for practical fair
decision-making. Our method learns an unbiased data representation leveraging
both labeled and unlabeled data and uses the representations to learn a policy
in an online process. Using synthetic data, we empirically validate that our
method converges to the optimal (fair) policy according to the ground-truth
with low variance. In real-world experiments, we further show that our training
approach not only offers a more stable learning process but also yields
policies with higher fairness as well as utility than previous approaches.
- Abstract(参考訳): 意思決定アルゴリズムは、実際には、様々なバイアスを示すデータに基づいて訓練されることが多い。
意思決定者は、しばしば、社会的に健全なグループに均等に分散される、または偏見のないと想定される、根本的真実的目標に基づいて決定を下そうとする。
多くの実践的な環境では、地平線を直接観測することはできず、代わりに、データ内の地平線(すなわちバイアス付きラベル)の偏りのあるプロキシ尺度を頼らなければならない。
さらに、データはしばしば選択的にラベル付けされ、例えばバイアスラベルでさえ、ポジティブな判断を受けたデータのごく一部しか観察されない。
ラベルと選択バイアスを克服するために、最近の研究は、確率的かつ探索的な決定政策を学習することを提案する。
一 各段階における新政策のオンライン研修及び
二 パフォーマンスの制約として公正を課すこと。
しかし、既存のアプローチではラベル付きデータのみを使用し、大量のラベル付きデータを無視し、異なるタイミングで学習された決定ポリシーの安定性とばらつきに悩まされる。
本稿では,実用的公正意思決定のための変分オートエンコーダに基づく新しい手法を提案する。
本手法はラベル付きデータとラベルなしデータの両方を活用する非バイアスデータ表現を学習し,その表現を用いてオンラインプロセスでポリシーを学習する。
合成データを用いて,本手法が低分散の接地面に応じて最適(フェア)ポリシーに収束することを実証的に検証した。
実世界の実験では、我々のトレーニングアプローチはより安定した学習プロセスを提供するだけでなく、より公平で実用性の高いポリシーも提供します。
関連論文リスト
- Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - How to Leverage Unlabeled Data in Offline Reinforcement Learning [125.72601809192365]
オフライン強化学習(RL)は、静的データセットから制御ポリシーを学ぶことができるが、標準のRLメソッドと同様に、移行毎に報酬アノテーションを必要とする。
1つの自然な解決策は、ラベル付けされたデータから報酬関数を学習し、ラベル付けされていないデータをラベル付けすることである。
ラベルのないデータに単純に報酬をゼロにする方が、効果的なデータ共有につながる。
論文 参考訳(メタデータ) (2022-02-03T18:04:54Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Can We Achieve Fairness Using Semi-Supervised Learning? [13.813788753789428]
半教師付き手法を用いて、公平な分類モデルを作成する。
当社のフレームワークであるFair-SSLは,ラベル付きデータを入力として,ラベルなしデータの擬似ラベルを生成する。
Fair-SSLは3つの最先端バイアス軽減アルゴリズムと同じようなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2021-11-03T06:47:47Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLo ss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - A Survey on Semi-Supervised Learning for Delayed Partially Labelled Data
Streams [10.370629574634092]
本調査は, 半教師付き環境で, 不正なデータを利用する手法に特に注意を払っている。
完全教師付き手法と半教師付き手法の両方に影響を及ぼす遅延ラベル問題について議論する。
論文 参考訳(メタデータ) (2021-06-16T23:14:20Z) - RATT: Leveraging Unlabeled Data to Guarantee Generalization [96.08979093738024]
ラベルのないデータを利用して一般化境界を生成する手法を紹介します。
境界が0-1経験的リスク最小化に有効であることを証明します。
この作業は、見えないラベル付きデータが利用できない場合でも、ディープネットの一般化を証明するためのオプションを実践者に提供します。
論文 参考訳(メタデータ) (2021-05-01T17:05:29Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z) - A Ranking Approach to Fair Classification [11.35838396538348]
アルゴリズムによる意思決定システムは、雇用、学校入学、ローン承認などの分野でますます使われている。
多くのシナリオでは、ゼロ・トゥルース・ラベルは利用できなくなり、代わりに人間による決定の結果、不完全なラベルにしかアクセスできません。
本稿では,従来の分類アルゴリズムの代替として,公平なランク付けに基づく意思決定システムを提案する。
論文 参考訳(メタデータ) (2021-02-08T22:51:12Z) - Data Preprocessing to Mitigate Bias with Boosted Fair Mollifiers [104.90335702521378]
最近の論文で、Celisらは、データ分散自体を補正する公正性に対する新しいアプローチを導入した。
本稿では、プライバシで最近導入された数学的オブジェクト -- 分散のモリファイア -- と、マシンラーニングに対する一般的なアプローチ -- を活用して、強化する。
このアプローチは指数族の十分な統計学を学ぶことを伴う。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。