論文の概要: COSCO: A Sharpness-Aware Training Framework for Few-shot Multivariate Time Series Classification
- arxiv url: http://arxiv.org/abs/2409.09645v1
- Date: Sun, 15 Sep 2024 07:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 19:58:08.808566
- Title: COSCO: A Sharpness-Aware Training Framework for Few-shot Multivariate Time Series Classification
- Title(参考訳): COSCO: 多変量時系列分類のためのシャープネス対応学習フレームワーク
- Authors: Jesus Barreda, Ashley Gomez, Ruben Puga, Kaixiong Zhou, Li Zhang,
- Abstract要約: シャープネス認識最小化(SAM)最適化とプロトタイプ損失関数からなる新しい学習フレームワークCOSCOを提案する。
本研究では,提案手法が既存のベースライン法より優れていることを示す。
- 参考スコア(独自算出の注目度): 19.593625378366472
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Multivariate time series classification is an important task with widespread domains of applications. Recently, deep neural networks (DNN) have achieved state-of-the-art performance in time series classification. However, they often require large expert-labeled training datasets which can be infeasible in practice. In few-shot settings, i.e. only a limited number of samples per class are available in training data, DNNs show a significant drop in testing accuracy and poor generalization ability. In this paper, we propose to address these problems from an optimization and a loss function perspective. Specifically, we propose a new learning framework named COSCO consisting of a sharpness-aware minimization (SAM) optimization and a Prototypical loss function to improve the generalization ability of DNN for multivariate time series classification problems under few-shot setting. Our experiments demonstrate our proposed method outperforms the existing baseline methods. Our source code is available at: https://github.com/JRB9/COSCO.
- Abstract(参考訳): 多変量時系列分類は、広範囲にわたるアプリケーション領域において重要な課題である。
近年,ディープニューラルネットワーク (DNN) は時系列分類において最先端の性能を実現している。
しかし、実際には実現不可能な、大規模なエキスパートラベル付きトレーニングデータセットを必要とする場合が多い。
数ショット設定、すなわち、トレーニングデータではクラス毎のサンプル数が限られているため、DNNはテスト精度と一般化能力の低下を顕著に示している。
本稿では,これらの問題に最適化と損失関数の観点から対処することを提案する。
具体的には,多変量時系列分類問題に対する多変量時系列分類問題の一般化能力を向上させるために,シャープネス認識最小化(SAM)最適化とプロトタイプ損失関数からなるCOSCOという新しい学習フレームワークを提案する。
本研究では,提案手法が既存のベースライン法より優れていることを示す。
ソースコードは、https://github.com/JRB9/COSCO.comで公開されています。
関連論文リスト
- Fast Graph Sharpness-Aware Minimization for Enhancing and Accelerating Few-Shot Node Classification [53.727688136434345]
グラフニューラルネットワーク(GNN)はノード分類において優れた性能を示している。
高速グラフシャープネス認識最小化(FGSAM)を提案する。
提案アルゴリズムは,FSNCタスクにおいて,計算コストの低い標準SAMよりも優れる。
論文 参考訳(メタデータ) (2024-10-22T09:33:29Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Informative regularization for a multi-layer perceptron RR Lyrae
classifier under data shift [3.303002683812084]
本稿では,情報正規化とアドホックなトレーニング手法に基づくスケーラブルで容易に適応可能なアプローチを提案し,シフト問題を緩和する。
提案手法は,特徴量からの知識をニューラルネットワークに組み込むことで,基礎となるデータシフト問題を管理する。
論文 参考訳(メタデータ) (2023-03-12T02:49:19Z) - Fast Hierarchical Learning for Few-Shot Object Detection [57.024072600597464]
転送学習アプローチは、最近、数ショット検出タスクで有望な結果を得た。
これらのアプローチは、ベース検出器の微調整による破滅的な忘れ込みの問題に悩まされる。
この作業における上記の問題に対処する。
論文 参考訳(メタデータ) (2022-10-10T20:31:19Z) - Class-incremental Learning using a Sequence of Partial Implicitly
Regularized Classifiers [0.0]
クラス増分学習では、トレーニングデータ全体にアクセスすることなく、複数のクラスを順次学習することが目的である。
CIFAR100データセットの実験では、提案手法がSOTAの性能を大きなマージンで向上させることが示された。
論文 参考訳(メタデータ) (2021-04-04T10:02:45Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z) - SRDCNN: Strongly Regularized Deep Convolution Neural Network
Architecture for Time-series Sensor Signal Classification Tasks [4.950427992960756]
SRDCNN: 時系列分類タスクを実行するために, SRDCNN(Strongly Regularized Deep Convolution Neural Network)をベースとしたディープアーキテクチャを提案する。
提案手法の新規性は、ネットワークウェイトが L1 と L2 のノルム法則によって正則化されることである。
論文 参考訳(メタデータ) (2020-07-14T08:42:39Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - Zero-shot and few-shot time series forecasting with ordinal regression
recurrent neural networks [17.844338213026976]
リカレントニューラルネットワーク(RNN)は、いくつかのシーケンシャルな学習タスクにおいて最先端である。
本稿では,多くの量子化された時系列の空間上に埋め込まれた共有特徴を学習することにより,この問題に直接対処する新しいRNNモデルを提案する。
これにより、トレーニングデータが少ない場合であっても、RNNフレームワークが不適切な時系列を正確かつ確実に予測できることを示す。
論文 参考訳(メタデータ) (2020-03-26T21:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。