論文の概要: Online Selective Classification with Limited Feedback
- arxiv url: http://arxiv.org/abs/2110.14243v1
- Date: Wed, 27 Oct 2021 08:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 13:30:53.545863
- Title: Online Selective Classification with Limited Feedback
- Title(参考訳): 限定フィードバックを用いたオンライン選択分類
- Authors: Aditya Gangrade, Anil Kag, Ashok Cutkosky, Venkatesh Saligrama
- Abstract要約: オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
- 参考スコア(独自算出の注目度): 82.68009460301585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by applications to resource-limited and safety-critical domains, we
study selective classification in the online learning model, wherein a
predictor may abstain from classifying an instance. For example, this may model
an adaptive decision to invoke more resources on this instance. Two salient
aspects of the setting we consider are that the data may be non-realisable, due
to which abstention may be a valid long-term action, and that feedback is only
received when the learner abstains, which models the fact that reliable labels
are only available when the resource intensive processing is invoked.
Within this framework, we explore strategies that make few mistakes, while
not abstaining too many times more than the best-in-hindsight error-free
classifier from a given class. That is, the one that makes no mistakes, while
abstaining the fewest number of times. We construct simple versioning-based
schemes for any $\mu \in (0,1],$ that make most $T^\mu$ mistakes while
incurring \smash{$\tilde{O}(T^{1-\mu})$} excess abstention against adaptive
adversaries. We further show that this dependence on $T$ is tight, and provide
illustrative experiments on realistic datasets.
- Abstract(参考訳): リソース制限および安全クリティカルドメインへの応用により、オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的な分類について研究する。
例えば、このインスタンスでより多くのリソースを呼び出すための適応的な決定をモデル化できる。
この設定の健全な側面は、データの非可逆性、すなわち、禁忌が有効な長期的行動である可能性があること、そして学習者が棄権した場合にのみフィードバックが受けられること、そしてリソース集約処理の実行時にのみ信頼性のあるラベルが利用できるという事実をモデル化することである。
このフレームワーク内では、過ちをほとんど犯さない戦略を探求するが、与えられたクラスから最も目に見えるエラーのない分類器よりも多くは無視しない。
つまり,ミスを犯さないと同時に,最も少ない回数を排除しているのです。
任意の$\mu \in (0,1],$ に対して単純なバージョニングベースのスキームを構築し、ほとんどの$t^\mu$ミスを発生させる一方で、適応的な敵に対する過剰な棄却を伴って \smash{$\tilde{o}(t^{1-\mu})$} を発生させる。
さらに、この$T$への依存は厳密であり、現実的なデータセットに関する実証実験を提供する。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Agnostic Smoothed Online Learning [5.167069404528051]
本稿では,$mu$の事前知識を必要とせずに,オンライン学習を円滑に行うためのサブ線形後悔を保証するアルゴリズムを提案する。
R-Coverは、次元$d$を持つ関数クラスに対して、適応的後悔$tilde O(sqrtdT/sigma)$を持つ。
論文 参考訳(メタデータ) (2024-10-07T15:25:21Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Characterizing Datapoints via Second-Split Forgetting [93.99363547536392]
我々は、オリジナルのトレーニング例が忘れられた後(もしあれば)のエポックを追跡する補足的メトリックである$$-second-$split$$forgetting$$$time$ (SSFT)を提案する。
例えば$mislabeled$の例はすぐに忘れられ、$rare$の例は比較的ゆっくりと忘れられています。
SSFTは、(i)間違ったラベル付きサンプルを識別し、その除去により一般化が向上し、(ii)障害モードに関する洞察を提供する。
論文 参考訳(メタデータ) (2022-10-26T21:03:46Z) - Learning When to Say "I Don't Know" [0.5505634045241288]
本稿では,決定空間における不確実性領域を識別・除去するリジェクトオプション分類手法を提案する。
そこで我々は,相補的拒絶領域を解析し,クラスごとのソフトマックス閾値を学習するための検証セットを用いることにより,代替的な定式化を検討する。
提案手法の利点を,2次元点,画像,テキスト分類データセットを用いて評価した。
論文 参考訳(メタデータ) (2022-09-11T21:50:03Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Cold-start Active Learning through Self-supervised Language Modeling [15.551710499866239]
アクティブラーニングは、ラベルに最も重要な例を選択することで、アノテーションのコストを削減することを目的としている。
BERTでは、マスク付き言語モデリング損失に基づく単純な戦略を開発する。
他のベースラインと比較して,本手法はより少ないサンプリングイテレーションと時間で精度が高い。
論文 参考訳(メタデータ) (2020-10-19T14:09:17Z) - Identifying Wrongly Predicted Samples: A Method for Active Learning [6.976600214375139]
本稿では,不確実性を超えた単純なサンプル選択基準を提案する。
予測されたサンプルを正しく識別するために、最先端の結果とより良いレートを示す。
論文 参考訳(メタデータ) (2020-10-14T09:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。