論文の概要: MSTAR: Multi-Scale Backbone Architecture Search for Timeseries
Classification
- arxiv url: http://arxiv.org/abs/2402.13822v1
- Date: Wed, 21 Feb 2024 13:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 15:07:06.693296
- Title: MSTAR: Multi-Scale Backbone Architecture Search for Timeseries
Classification
- Title(参考訳): mstar: 時系列分類のためのマルチスケールバックボーンアーキテクチャ探索
- Authors: Tue M. Cao, Nhat H. Tran, Hieu H. Pham, Hung T. Nguyen, and Le P.
Nguyen
- Abstract要約: ニューラルアーキテクチャサーチ(NAS)のための新しいマルチスケール検索空間とフレームワークを提案する。
我々のモデルは、トレーニングされていない重量とトレーニング済み重量の両方を持つ強力なTransformerモジュールを使用するためのバックボーンとして機能することを示します。
検索空間は4つの異なる領域の4つのデータセットで最先端のパフォーマンスに達する。
- 参考スコア(独自算出の注目度): 0.41185655356953593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of the previous approaches to Time Series Classification (TSC) highlight
the significance of receptive fields and frequencies while overlooking the time
resolution. Hence, unavoidably suffered from scalability issues as they
integrated an extensive range of receptive fields into classification models.
Other methods, while having a better adaptation for large datasets, require
manual design and yet not being able to reach the optimal architecture due to
the uniqueness of each dataset. We overcome these challenges by proposing a
novel multi-scale search space and a framework for Neural architecture search
(NAS), which addresses both the problem of frequency and time resolution,
discovering the suitable scale for a specific dataset. We further show that our
model can serve as a backbone to employ a powerful Transformer module with both
untrained and pre-trained weights. Our search space reaches the
state-of-the-art performance on four datasets on four different domains while
introducing more than ten highly fine-tuned models for each data.
- Abstract(参考訳): 時系列分類(tsc)に対する以前のアプローチのほとんどは、時間分解能を見落としながら受容場と周波数の重要性を強調している。
したがって、幅広い受容フィールドを分類モデルに統合することで、避けられないスケーラビリティの問題に苦しめられた。
他の方法は、大規模なデータセットに対する適応性は向上しているが、手動設計が必要であり、各データセットの独自性のために最適なアーキテクチャに到達できない。
これらの課題を克服するために,新しいマルチスケール探索空間とニューラルネットワーク探索フレームワーク(nas)を提案し,周波数問題と時間分解問題の両方に対処し,特定のデータセットに適したスケールを探索する。
さらに,本モデルは,未訓練重量と事前訓練重量の両方を有する強力なトランスフォーマーモジュールを採用するためのバックボーンとして機能することを示す。
私たちの検索空間は、4つの異なるドメインの4つのデータセットで最先端のパフォーマンスに達し、各データに10以上の高度に調整されたモデルを導入しています。
関連論文リスト
- User-friendly Foundation Model Adapters for Multivariate Time Series Classification [16.94369040048502]
ファンデーションモデルは、非常に効果的であるが、しばしばリソース集約であり、かなりの推論時間とメモリを必要とする。
本稿では,次元削減手法を探求することにより,これらのモデルを限られた計算資源でより利用しやすくすることの課題に対処する。
我々の実験では、ベースラインモデルと比較して最大10倍のスピードアップを実現し、パフォーマンスを低下させることなく、1つのGPUに最大4.5倍のデータセットを適合させることができる。
論文 参考訳(メタデータ) (2024-09-18T18:50:20Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Time Series Representation Models [2.724184832774005]
時系列解析は、そのスパース特性、高次元性、一貫性のないデータ品質のため、依然として大きな課題である。
近年のトランス技術の発展により,予測や計算能力が向上している。
イントロスペクションに基づく時系列解析のための新しいアーキテクチャ概念を提案する。
論文 参考訳(メタデータ) (2024-05-28T13:25:31Z) - UniCL: A Universal Contrastive Learning Framework for Large Time Series Models [18.005358506435847]
時系列分析は、金融から医療まで、さまざまな重要なアプリケーションにおいて重要な役割を果たす。
従来の教師付き学習手法は、まず各タスクにおける時系列データの広範なラベルを注釈付けする。
本稿では,時系列基礎モデルの事前学習を目的とした,普遍的でスケーラブルなコントラスト学習フレームワークUniCLを紹介する。
論文 参考訳(メタデータ) (2024-05-17T07:47:11Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - MADS: Modulated Auto-Decoding SIREN for time series imputation [9.673093148930874]
我々は,暗黙のニューラル表現に基づく時系列計算のための新しい自動デコードフレームワークMADSを提案する。
実世界の2つのデータセット上で本モデルを評価し,時系列計算における最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T09:08:47Z) - Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening [67.6394526631557]
M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T13:07:36Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - PIETS: Parallelised Irregularity Encoders for Forecasting with
Heterogeneous Time-Series [5.911865723926626]
マルチソースデータセットの不均一性と不規則性は時系列解析において重要な課題となる。
本研究では、異種時系列をモデル化するための新しいアーキテクチャ、PIETSを設計する。
PIETSは異種時間データを効果的にモデル化し、予測タスクにおける他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-09-30T20:01:19Z) - AdaXpert: Adapting Neural Architecture for Growing Data [63.30393509048505]
実世界のアプリケーションでは、データボリュームとクラス数が動的に増加する可能性があるため、データが増大することが多い。
データボリュームの増加やクラスの数を考えると、期待できるパフォーマンスを得るためには、ニューラルネットワークのキャパシティを瞬時に調整する必要がある。
既存のメソッドは、データの増大する性質を無視したり、特定のデータセットの最適なアーキテクチャを独立して検索しようとする。
論文 参考訳(メタデータ) (2021-07-01T07:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。