論文の概要: A Rationale-Centric Framework for Human-in-the-loop Machine Learning
- arxiv url: http://arxiv.org/abs/2203.12918v1
- Date: Thu, 24 Mar 2022 08:12:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 13:02:55.511678
- Title: A Rationale-Centric Framework for Human-in-the-loop Machine Learning
- Title(参考訳): ヒュー・イン・ザ・ループ機械学習のための合理性中心のフレームワーク
- Authors: Jinghui Lu, Linyi Yang, Brian Mac Namee, Yue Zhang
- Abstract要約: 本稿では,RDL(Ralionales-centric Double-robustness Learning)を用いた新たな理性中心型フレームワークを提案する。
RDLは、有理性(すなわち、予測を引き起こすフレーズ)、人間の介入、半現実的な拡張を利用して、スパイラルな関連性やバイアスモデルを切り離し、一般に適用可能な基礎的分布に向かわせる。
- 参考スコア(独自算出の注目度): 12.793695970529138
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a novel rationale-centric framework with human-in-the-loop --
Rationales-centric Double-robustness Learning (RDL) -- to boost model
out-of-distribution performance in few-shot learning scenarios. By using static
semi-factual generation and dynamic human-intervened correction, RDL exploits
rationales (i.e. phrases that cause the prediction), human interventions and
semi-factual augmentations to decouple spurious associations and bias models
towards generally applicable underlying distributions, which enables fast and
accurate generalisation. Experimental results show that RDL leads to
significant prediction benefits on both in-distribution and out-of-distribution
tests compared to many state-of-the-art benchmarks -- especially for few-shot
learning scenarios. We also perform extensive ablation studies to support
in-depth analyses of each component in our framework.
- Abstract(参考訳): 本稿では,Rationales中心のDouble-robustness Learning(RDL)を用いた新たな合理性中心型フレームワークを提案する。
静的半実数生成と動的人間介入補正を用いることで、RDLは有理性(すなわち予測の原因となるフレーズ)、人間の介入、半実数拡張を利用して、スパイラルな関連性やバイアスモデルを一般化された基礎的な分布へと分離し、高速かつ正確な一般化を可能にする。
実験の結果、rdlは、多くの最先端ベンチマークと比べて、分散テストと分散テストの両方において、大きな予測上の利点をもたらすことがわかった。
また,フレームワークの各コンポーネントの詳細な分析を支援するため,広範囲にわたるアブレーション研究も実施している。
関連論文リスト
- Dynamic Post-Hoc Neural Ensemblers [55.15643209328513]
本研究では,ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ベースモデル予測をランダムにドロップすることでモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性を低くし、オーバーフィッティングを減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Distribution-Dependent Rates for Multi-Distribution Learning [26.38831409926518]
最近のマルチディストリビューション学習フレームワークは、環境との動的相互作用において、この目的に対処する。
我々は, MDL体制における分布依存性の保証を行い, 最適値以下の差でスケールし, その結果, 試料サイズへの依存度が向上することを示した。
適応型楽観的アルゴリズム LCB-DR を考案し,マルチアームバンディット文学における均一性と楽観的アロケーションのコントラストを反映した。
論文 参考訳(メタデータ) (2023-12-20T15:50:16Z) - A Generalized Doubly Robust Learning Framework for Debiasing Post-Click
Conversion Rate Prediction [23.340584290411208]
クリック後変換率(CVR)予測は、ユーザの興味を見つけ、プラットフォーム収益を増やすための重要なタスクである。
現在、Doublely robust(DR)学習アプローチは、CVR予測を損なうための最先端のパフォーマンスを実現している。
本稿では,DR損失のバイアスを制御し,バイアスと分散を柔軟にバランスするDR-BIASとDR-MSEの2つの新しいDR手法を提案する。
論文 参考訳(メタデータ) (2022-11-12T15:09:23Z) - Multiple Robust Learning for Recommendation [13.06593469196849]
推薦システムでは、収集されたデータに様々なバイアスが存在することが一般的な問題である。
本稿では,不偏性を実現するために,複数の候補計算モデルと確率モデルを利用するマルチロバスト (MR) 推定器を提案する。
論文 参考訳(メタデータ) (2022-07-09T13:15:56Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。