論文の概要: Learning to Reject with a Fixed Predictor: Application to
Decontextualization
- arxiv url: http://arxiv.org/abs/2301.09044v1
- Date: Sun, 22 Jan 2023 03:04:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:15:33.619717
- Title: Learning to Reject with a Fixed Predictor: Application to
Decontextualization
- Title(参考訳): 定型予測器による拒絶学習:非文脈化への応用
- Authors: Christopher Mohri, Daniel Andor, Eunsol Choi, Michael Collins
- Abstract要約: 本稿では,自然言語処理に適用可能な定型予測器のリジェクションオプションを用いた分類問題について検討する。
本稿では,このシナリオに対する新しい問題定式化と,新しいサロゲート損失関数を最小化するアルゴリズムを提案する。
提案アルゴリズムは,誤差率を半減させた場合のカバレッジを$sim!25%$で改善した。
- 参考スコア(独自算出の注目度): 28.011953702958106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of classification with a reject option for a fixed
predictor, applicable in natural language processing. \ignore{where many
correct labels are often possible} We introduce a new problem formulation for
this scenario, and an algorithm minimizing a new surrogate loss function. We
provide a complete theoretical analysis of the surrogate loss function with a
strong $H$-consistency guarantee. For evaluation, we choose the
\textit{decontextualization} task, and provide a manually-labelled dataset of
$2\mathord,000$ examples. Our algorithm significantly outperforms the baselines
considered, with a $\sim\!\!25\%$ improvement in coverage when halving the
error rate, which is only $\sim\!\! 3 \%$ away from the theoretical limit.
- Abstract(参考訳): 本研究は,自然言語処理に適用可能な定型予測器のリジェクトオプションによる分類問題について検討する。
このシナリオに新たな問題定式化を導入し,新しいサロゲート損失関数を最小化するアルゴリズムを提案する。
我々は、強い$h$-一貫性保証を持つサーロゲート損失関数の完全な理論的解析を提供する。
評価には、textit{decontextualization}タスクを選択し、手動で2,000ドルのサンプルのデータセットを提供する。
我々のアルゴリズムは、考慮されたベースラインを大幅に上回り、$\sim\!
\!
25\%$ エラーレートを半分にした場合のカバレッジ改善は$\sim\!
\!
3 % は理論上の限界から遠ざかっている。
関連論文リスト
- Corruption-Robust Algorithms with Uncertainty Weighting for Nonlinear
Contextual Bandits and Markov Decision Processes [81.29523525902476]
本稿では,$tildeO(sqrtT+zeta)$を後悔するアルゴリズムを提案する。
提案アルゴリズムは,最近開発された線形文脈帯域からの不確実性重み付き最小二乗回帰に依拠する。
一般関数近似のシナリオにおいて,我々のアルゴリズムをエピソディックなMDP設定に一般化し,まず汚職レベル$zeta$への付加的依存を実現する。
論文 参考訳(メタデータ) (2022-12-12T15:04:56Z) - Blessing of Class Diversity in Pre-training [54.335530406959435]
事前学習タスクのクラスが十分に多種多様である場合、事前学習は下流タスクのサンプル効率を大幅に向上させることができることを示す。
我々の証明は、合成関数クラスに対するベクトル形式ラデマッハ複雑性連鎖則と修正自己調和条件に依存している。
論文 参考訳(メタデータ) (2022-09-07T20:10:12Z) - Majorization-minimization for Sparse Nonnegative Matrix Factorization
with the $\beta$-divergence [4.468952886990851]
他の因子(辞書行列)のノルムは不正な定式化を避けるために制御する必要があることはよく知られている。
標準のプラクティスは、辞書の列に単位ノルムを持つよう制約することであり、これは非自明な最適化問題につながる。
我々は,$ell_1$-regularization あるいはより "攻撃的" なログ規則化に対して,単純な乗法的更新をもたらすブロック・ディフレッシブ・プライマリゼーション・最小化アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-07-13T16:09:29Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Almost Optimal Batch-Regret Tradeoff for Batch Linear Contextual Bandits [45.43968161616453]
バッチ線形文脈帯域に対する最適バッチ-regretトレードオフについて検討する。
時間的地平線が成長するにつれて2相表現を特徴とする後悔の保証を証明します。
また, 動的上界に依存した新しい行列不等式濃度を証明した。
論文 参考訳(メタデータ) (2021-10-15T12:32:33Z) - Lockout: Sparse Regularization of Neural Networks [0.0]
パラメータ $w$ の値に制約 $P(w)leq t$ を置き、精度を向上させるために正規化を適用する。
我々は、任意の微分可能関数$f$と損失$L$に対してそのようなすべての解を提供する高速アルゴリズムと、各パラメータの絶対値の単調関数である任意の制約$P$を提案する。
論文 参考訳(メタデータ) (2021-07-15T07:17:20Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Learning from Satisfying Assignments Using Risk Minimization [0.0]
本論文では,一様分布に近似する分布を求めるcite1で導入された課題を満たすことから学習する問題を考える。
リスク最小化のための標準最適化アルゴリズムに基づく類似の結果を実証する。
論文 参考訳(メタデータ) (2021-01-10T14:10:03Z) - A Deeper Look at Discounting Mismatch in Actor-Critic Algorithms [81.01917016753644]
本稿では,表現学習の観点からアクタ・クリティカルなアルゴリズムの実装における割引ミスマッチについて検討する。
理論的には、アクター批判アルゴリズムは通常、アクターと批評家の両方に対して割引される。
しかし、専門家は通常、ディスカウントされた批評家を使用しながら、俳優の割引(ガンマt$)を無視する。
論文 参考訳(メタデータ) (2020-10-02T15:51:48Z) - The Trimmed Lasso: Sparse Recovery Guarantees and Practical Optimization
by the Generalized Soft-Min Penalty [14.85926834924458]
本稿では,古典ラッソと一般パターンを補間するスパース近似あるいは最良部分集合の解法を提案する。
我々は、一般的なソフトミンペナルティを計算するためにスパースタイムを導出する。
論文 参考訳(メタデータ) (2020-05-18T18:43:06Z) - Taking a hint: How to leverage loss predictors in contextual bandits? [63.546913998407405]
我々は,損失予測の助けを借りて,文脈的包帯における学習を研究する。
最適な後悔は$mathcalO(minsqrtT, sqrtmathcalETfrac13)$である。
論文 参考訳(メタデータ) (2020-03-04T07:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。