論文の概要: Learning to Reject with a Fixed Predictor: Application to
Decontextualization
- arxiv url: http://arxiv.org/abs/2301.09044v1
- Date: Sun, 22 Jan 2023 03:04:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:15:33.619717
- Title: Learning to Reject with a Fixed Predictor: Application to
Decontextualization
- Title(参考訳): 定型予測器による拒絶学習:非文脈化への応用
- Authors: Christopher Mohri, Daniel Andor, Eunsol Choi, Michael Collins
- Abstract要約: 本稿では,自然言語処理に適用可能な定型予測器のリジェクションオプションを用いた分類問題について検討する。
本稿では,このシナリオに対する新しい問題定式化と,新しいサロゲート損失関数を最小化するアルゴリズムを提案する。
提案アルゴリズムは,誤差率を半減させた場合のカバレッジを$sim!25%$で改善した。
- 参考スコア(独自算出の注目度): 28.011953702958106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of classification with a reject option for a fixed
predictor, applicable in natural language processing. \ignore{where many
correct labels are often possible} We introduce a new problem formulation for
this scenario, and an algorithm minimizing a new surrogate loss function. We
provide a complete theoretical analysis of the surrogate loss function with a
strong $H$-consistency guarantee. For evaluation, we choose the
\textit{decontextualization} task, and provide a manually-labelled dataset of
$2\mathord,000$ examples. Our algorithm significantly outperforms the baselines
considered, with a $\sim\!\!25\%$ improvement in coverage when halving the
error rate, which is only $\sim\!\! 3 \%$ away from the theoretical limit.
- Abstract(参考訳): 本研究は,自然言語処理に適用可能な定型予測器のリジェクトオプションによる分類問題について検討する。
このシナリオに新たな問題定式化を導入し,新しいサロゲート損失関数を最小化するアルゴリズムを提案する。
我々は、強い$h$-一貫性保証を持つサーロゲート損失関数の完全な理論的解析を提供する。
評価には、textit{decontextualization}タスクを選択し、手動で2,000ドルのサンプルのデータセットを提供する。
我々のアルゴリズムは、考慮されたベースラインを大幅に上回り、$\sim\!
\!
25\%$ エラーレートを半分にした場合のカバレッジ改善は$\sim\!
\!
3 % は理論上の限界から遠ざかっている。
関連論文リスト
- Perturb-and-Project: Differentially Private Similarities and Marginals [73.98880839337873]
差分プライバシーのための入力摂動フレームワークを再検討し、入力にノイズを付加する。
まず、ペアワイズ・コサイン類似性をプライベートにリリースするための新しい効率的なアルゴリズムを設計する。
我々は,$k$の辺縁クエリを$n$の機能に対して計算する新しいアルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-06-07T12:07:16Z) - Revisiting Inexact Fixed-Point Iterations for Min-Max Problems: Stochasticity and Structured Nonconvexity [18.427215139020632]
1L 1$は、マルチレベルなCarloイテレーションであっても、最先端の問題を改善するために使用できることを示す。
解に関する唯一のホールドが新しい1L 1$理論である場合、不正確なハルパーネス推定器を1L 1$で解析する。
論文 参考訳(メタデータ) (2024-02-07T18:22:41Z) - Zero-Regret Performative Prediction Under Inequality Constraints [5.513958040574729]
本稿では不等式制約下での性能予測について検討する。
我々は,ある程度の精度しか必要としない頑健な原始双対フレームワークを開発する。
次に、位置ファミリに対する適応的原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-22T04:54:26Z) - Universal Online Learning with Gradient Variations: A Multi-layer Online Ensemble Approach [57.92727189589498]
本稿では,2段階の適応性を持つオンライン凸最適化手法を提案する。
我々は$mathcalO(log V_T)$, $mathcalO(d log V_T)$, $hatmathcalO(sqrtV_T)$ regret bounds for strong convex, exp-concave and convex loss function。
論文 参考訳(メタデータ) (2023-07-17T09:55:35Z) - Accelerating Inexact HyperGradient Descent for Bilevel Optimization [84.00488779515206]
本稿では,一般的な非コンケーブ二段階最適化問題の解法を提案する。
また,非コンケーブ問題における2次定常点を求める際の既存の複雑性も改善した。
論文 参考訳(メタデータ) (2023-06-30T20:36:44Z) - On the Interplay Between Misspecification and Sub-optimality Gap in
Linear Contextual Bandits [76.2262680277608]
本研究では,線形関数クラスによって期待される報酬関数を近似できるような,不特定条件下での線形文脈帯域について検討する。
このアルゴリズムは, 対数的因子に比例した設定において, ギャップ依存の残差が$tilde O (d2/Delta)$と同じであることを示す。
論文 参考訳(メタデータ) (2023-03-16T15:24:29Z) - spred: Solving $L_1$ Penalty with SGD [6.2255027793924285]
単純な再パラメータ化を用いて、$L_$で微分可能な目的を最小化することを提案する。
我々は、再パラメータ化のトリックが「完全に良性である」ことを証明する。
論文 参考訳(メタデータ) (2022-10-03T20:07:51Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Learning from Satisfying Assignments Using Risk Minimization [0.0]
本論文では,一様分布に近似する分布を求めるcite1で導入された課題を満たすことから学習する問題を考える。
リスク最小化のための標準最適化アルゴリズムに基づく類似の結果を実証する。
論文 参考訳(メタデータ) (2021-01-10T14:10:03Z) - The Trimmed Lasso: Sparse Recovery Guarantees and Practical Optimization
by the Generalized Soft-Min Penalty [14.85926834924458]
本稿では,古典ラッソと一般パターンを補間するスパース近似あるいは最良部分集合の解法を提案する。
我々は、一般的なソフトミンペナルティを計算するためにスパースタイムを導出する。
論文 参考訳(メタデータ) (2020-05-18T18:43:06Z) - Taking a hint: How to leverage loss predictors in contextual bandits? [63.546913998407405]
我々は,損失予測の助けを借りて,文脈的包帯における学習を研究する。
最適な後悔は$mathcalO(minsqrtT, sqrtmathcalETfrac13)$である。
論文 参考訳(メタデータ) (2020-03-04T07:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。