論文の概要: A Policy for Early Sequence Classification
- arxiv url: http://arxiv.org/abs/2304.03463v1
- Date: Fri, 7 Apr 2023 03:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 13:02:38.315629
- Title: A Policy for Early Sequence Classification
- Title(参考訳): 早期シーケンス分類のための政策
- Authors: Alexander Cao, Jean Utke and Diego Klabjan
- Abstract要約: 最後の要素を待たずにできるだけ早くシーケンスを分類する新しい方法を提案する。
複数の実験に対して平均AUCは11.8%増加した。
- 参考スコア(独自算出の注目度): 86.80932013694684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequences are often not received in their entirety at once, but instead,
received incrementally over time, element by element. Early predictions
yielding a higher benefit, one aims to classify a sequence as accurately as
possible, as soon as possible, without having to wait for the last element. For
this early sequence classification, we introduce our novel classifier-induced
stopping. While previous methods depend on exploration during training to learn
when to stop and classify, ours is a more direct, supervised approach. Our
classifier-induced stopping achieves an average Pareto frontier AUC increase of
11.8% over multiple experiments.
- Abstract(参考訳): シーケンスは、一度に全体において受信されないことが多いが、代わりに、要素ごとに、時間とともに徐々に受信される。
初期の予測は高い利益をもたらすが、最後の要素を待つことなくできるだけ早く、できるだけ正確にシーケンスを分類することを目指している。
この早期配列分類には,新規な分類器による停止を導入する。
従来の手法は、いつ停止し分類するかを学ぶための訓練中の探索に頼っていますが、我々の手法はより直接的で監督されたアプローチです。
分類器による停止は,複数の実験で平均パレートフロンティアAUCは11.8%増加した。
関連論文リスト
- Almost Sure Convergence of Average Reward Temporal Difference Learning [20.474661995490365]
タブラル平均報酬 一時学習(TD)はおそらく最も単純かつ最も基本的な政策評価アルゴリズムである。
非常に穏やかな条件下では、平均報酬 TD はサンプルパス依存の固定点にほぼ確実に収束することを示すのはこれが初めてである。
この成功の鍵となるのは、マルコフ的および加法的雑音を伴う非拡大写像に関する新しい一般差分近似結果である。
論文 参考訳(メタデータ) (2024-09-29T04:16:24Z) - SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - Online conformal prediction with decaying step sizes [15.884682750072399]
本稿では, 減衰段数によるオンライン共形予測手法を提案する。
従来の方法とは違って、集団の量的存在を同時に推定することができる。
論文 参考訳(メタデータ) (2024-02-02T04:42:09Z) - Early Classifying Multimodal Sequences [86.80932013694684]
決定の確実性を待ったままの取引は、初期の分類問題につながる。
提案手法は,実験的なAUCの利点を最大8.7%向上させることを示した。
論文 参考訳(メタデータ) (2023-05-02T01:57:34Z) - Large-scale Pre-trained Models are Surprisingly Strong in Incremental Novel Class Discovery [76.63807209414789]
我々は,クラスiNCDにおける現状問題に挑戦し,クラス発見を継続的に,真に教師なしで行う学習パラダイムを提案する。
凍結したPTMバックボーンと学習可能な線形分類器から構成される単純なベースラインを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:47:16Z) - Positive-Unlabeled Classification under Class-Prior Shift: A
Prior-invariant Approach Based on Density Ratio Estimation [85.75352990739154]
密度比推定に基づく新しいPU分類法を提案する。
提案手法の顕著な利点は、訓練段階においてクラスプライヤを必要としないことである。
論文 参考訳(メタデータ) (2021-07-11T13:36:53Z) - Class-incremental Learning using a Sequence of Partial Implicitly
Regularized Classifiers [0.0]
クラス増分学習では、トレーニングデータ全体にアクセスすることなく、複数のクラスを順次学習することが目的である。
CIFAR100データセットの実験では、提案手法がSOTAの性能を大きなマージンで向上させることが示された。
論文 参考訳(メタデータ) (2021-04-04T10:02:45Z) - PANDA: Adapting Pretrained Features for Anomaly Detection and
Segmentation [34.98371632913735]
本研究では,事前学習した特徴と単純な異常検出と分割法を組み合わせることで,最先端の手法を確実に上回ることを示す。
さらなる性能向上を得るために,事前学習した特徴を目標分布に適応させる。
論文 参考訳(メタデータ) (2020-10-12T17:52:50Z) - Predicting MOOCs Dropout Using Only Two Easily Obtainable Features from
the First Week's Activities [56.1344233010643]
いくつかの特徴は、学習者の誘惑や興味の欠如に寄与すると考えられており、そのことが解脱や総減退につながる可能性がある。
この研究は、いくつかの機械学習アプローチを比較して、最初の1週間から早期のドロップアウトを予測することを目的としている。
論文 参考訳(メタデータ) (2020-08-12T10:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。