論文の概要: Designing Closed Human-in-the-loop Deferral Pipelines
- arxiv url: http://arxiv.org/abs/2202.04718v1
- Date: Wed, 9 Feb 2022 20:52:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 17:04:35.262746
- Title: Designing Closed Human-in-the-loop Deferral Pipelines
- Title(参考訳): 閉ループ型デファーラルパイプラインの設計
- Authors: Vijay Keswani, Matthew Lease, Krishnaram Kenthapadi
- Abstract要約: 我々は、deferralで使用されているのと同じ誤った人間の意思決定者がトレーニングラベルを提供する、"クローズド"な意思決定パイプラインについて検討する。
キーとなる洞察は、弱い事前情報を活用することで、専門家にマッチしてサンプルを入力して、結果の遅延フレームワークの公平性と正確性を保証することができるということです。
- 参考スコア(独自算出の注目度): 27.505503750833217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In hybrid human-machine deferral frameworks, a classifier can defer uncertain
cases to human decision-makers (who are often themselves fallible). Prior work
on simultaneous training of such classifier and deferral models has typically
assumed access to an oracle during training to obtain true class labels for
training samples, but in practice there often is no such oracle. In contrast,
we consider a "closed" decision-making pipeline in which the same fallible
human decision-makers used in deferral also provide training labels. How can
imperfect and biased human expert labels be used to train a fair and accurate
deferral framework? Our key insight is that by exploiting weak prior
information, we can match experts to input examples to ensure fairness and
accuracy of the resulting deferral framework, even when imperfect and biased
experts are used in place of ground truth labels. The efficacy of our approach
is shown both by theoretical analysis and by evaluation on two tasks.
- Abstract(参考訳): ハイブリッドなヒューマンマシン推論フレームワークでは、分類器は人間の意思決定者に不確実性のあるケースを推論することができる。
このような分類器とdeferralモデルの同時トレーニングは、訓練中に真のクラスラベルを得るためのオラクルへのアクセスを前提としていたが、実際にはそのようなオラクルは存在しないことが多い。
それとは対照的に、deferralで使用される同じ誤りのある人間の意思決定者がトレーニングラベルを提供する、"閉じた"意思決定パイプラインを考える。
不完全で偏見のある人の専門家ラベルは、どのようにして公正で正確な推論フレームワークをトレーニングできるのだろうか?
我々の重要な洞察は、弱い事前情報を利用することによって、専門家と一致して、結果として生じる遅延フレームワークの公平さと正確性を保証することができるということです。
本手法の有効性は理論解析と2つの課題の評価の両方によって示される。
関連論文リスト
- Fair Classifiers that Abstain without Harm [24.90899074869189]
批判的な応用においては、分類器は人間に意思決定を延期することが不可欠である。
本稿では,既存の分類器が特定のサンプルの予測を選択的に禁ずるポストホック法を提案する。
この枠組みは,同程度の禁制率で精度を犠牲にすることなく,公平性の違いの観点から既存手法より優れる。
論文 参考訳(メタデータ) (2023-10-09T23:07:28Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Unbiased Gradient Estimation with Balanced Assignments for Mixtures of
Experts [32.43213645631101]
大規模な専門家モデルの混合を効率的に訓練するには、バッチ内のデータポイントを異なる専門家に割り当てる必要があり、それぞれが限られた能力を持つ。
最近提案された代入手順には確率論的解釈が欠如しており、訓練に偏りのある推定器が用いられている。
提案手法は,専門家の能力を超えるデータポイントをスキップする手法と,完全にバランスの取れた割り当てをサンプリングする手法である。
論文 参考訳(メタデータ) (2021-09-24T09:02:12Z) - Towards Unbiased and Accurate Deferral to Multiple Experts [19.24068936057053]
本研究では, 分類器とディフェラルシステムを同時に学習するフレームワークを提案し, ディフェラルシステムは1人以上の人間専門家にディジェラルシステムを選択する。
本フレームワークは,偏りのある合成専門家による合成データセットとコンテンツモデレーションデータセットを用いてテストし,最終予測の精度と公平性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-25T17:08:39Z) - Beyond traditional assumptions in fair machine learning [5.029280887073969]
この論文は、連続的な意思決定における公正性に対する従来の機械学習アプローチの基礎となる一般的な仮定を精査する。
観測データの統計的特性に基づいたグループフェアネス基準は, 基本的に限定的であることを示す。
我々は、機密データが実際に容易に利用できるという仮定を克服する。
論文 参考訳(メタデータ) (2021-01-29T09:02:15Z) - Why do you think that? Exploring Faithful Sentence-Level Rationales
Without Supervision [60.62434362997016]
文レベルで忠実な論理を出力するモデルを作成するために,異なる訓練枠組みを提案する。
本モデルでは,各理性に基づいて各課題を個別に解決し,その課題を最もよく解決した者に高いスコアを割り当てることを学ぶ。
論文 参考訳(メタデータ) (2020-10-07T12:54:28Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。