論文の概要: Learning Robust and Consistent Time Series Representations: A Dilated
Inception-Based Approach
- arxiv url: http://arxiv.org/abs/2306.06579v1
- Date: Sun, 11 Jun 2023 04:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:06:33.297940
- Title: Learning Robust and Consistent Time Series Representations: A Dilated
Inception-Based Approach
- Title(参考訳): 頑健で一貫性のある時系列表現の学習:拡張インセプションに基づくアプローチ
- Authors: Anh Duy Nguyen, Trang H. Tran, Hieu H. Pham, Phi Le Nguyen, Lam M.
Nguyen
- Abstract要約: 本稿では,自然時系列におけるノイズの存在下で一貫した表現学習を促進する新しいサンプリング手法を提案する。
また、インセプションブロック内の拡張畳み込みを利用してスケーラブルで堅牢なネットワークアーキテクチャを構築するエンコーダアーキテクチャを提案する。
本手法は,予測,分類,異常検出タスクにおいて常に最先端の手法より優れる。
- 参考スコア(独自算出の注目度): 14.344468798269622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representation learning for time series has been an important research area
for decades. Since the emergence of the foundation models, this topic has
attracted a lot of attention in contrastive self-supervised learning, to solve
a wide range of downstream tasks. However, there have been several challenges
for contrastive time series processing. First, there is no work considering
noise, which is one of the critical factors affecting the efficacy of time
series tasks. Second, there is a lack of efficient yet lightweight encoder
architectures that can learn informative representations robust to various
downstream tasks. To fill in these gaps, we initiate a novel sampling strategy
that promotes consistent representation learning with the presence of noise in
natural time series. In addition, we propose an encoder architecture that
utilizes dilated convolution within the Inception block to create a scalable
and robust network architecture with a wide receptive field. Experiments
demonstrate that our method consistently outperforms state-of-the-art methods
in forecasting, classification, and abnormality detection tasks, e.g. ranks
first over two-thirds of the classification UCR datasets, with only $40\%$ of
the parameters compared to the second-best approach. Our source code for
CoInception framework is accessible at
https://github.com/anhduy0911/CoInception.
- Abstract(参考訳): 時系列表現学習は何十年にもわたって重要な研究分野である。
基礎モデルの出現以来、このトピックは、幅広い下流タスクを解決するために、対照的な自己監督学習において多くの注目を集めてきた。
しかし、対照的な時系列処理にはいくつかの課題があった。
まず、時系列タスクの有効性に影響を及ぼす重要な要因の一つとしてノイズを考慮する作業はない。
第二に、様々な下流タスクに対して堅牢な情報表現を学習できる効率的な軽量エンコーダアーキテクチャがない。
これらのギャップを埋めるために,自然時系列における雑音の存在下で一貫した表現学習を促進する新しいサンプリング戦略を開始する。
さらに,インセプションブロック内の拡張畳み込みを利用して,広い受容領域を持つスケーラブルでロバストなネットワークアーキテクチャを構築するエンコーダアーキテクチャを提案する。
提案手法は, 予測, 分類, 異常検出タスクにおいて, 常に最先端の手法を上回っており, 分類データセットの3分の2以上を占めており, パラメータの40\%$である。
CoInceptionフレームワークのソースコードはhttps://github.com/anhduy0911/CoInceptionで参照できます。
関連論文リスト
- RanDumb: A Simple Approach that Questions the Efficacy of Continual
Representation Learning [72.50714537242183]
RanDumbは、RBF-カーネルを近似した固定ランダム変換を用いて生のピクセルを埋め込む。
RanDumbは深層ネットワークを用いて継続的に学習された表現を著しく上回っている。
論文 参考訳(メタデータ) (2024-02-13T22:07:29Z) - Unsupervised Multi-modal Feature Alignment for Time Series
Representation Learning [20.655943795843037]
異なるモダリティから符号化された時系列表現の整合と結合に焦点を当てた革新的なアプローチを導入する。
複数のモーダルから特徴を融合させる従来の手法とは対照的に,提案手法は単一時系列エンコーダを保持することにより,ニューラルアーキテクチャを単純化する。
我々のアプローチは、様々な下流タスクにまたがる既存の最先端のURLメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-12-09T22:31:20Z) - Learning from One Continuous Video Stream [70.88879725963575]
1つの連続ビデオストリームからオンライン学習のためのフレームワークを導入する。
連続するビデオフレーム間の高い相関を考えると、これは大きな課題となる。
プリトレーニングとシングルストリーム評価を切り替える実用的で柔軟な方法として,ピクセル・ツー・ピクセル・モデリングを採用している。
論文 参考訳(メタデータ) (2023-12-01T14:03:30Z) - Few-shot Image Classification based on Gradual Machine Learning [6.935034849731568]
少ないショット画像分類は、ラベル付きサンプルのみを使用してラベル付きイメージを正確に分類することを目的としている。
段階的機械学習(GML)の非i.dパラダイムに基づく新しいアプローチを提案する。
提案手法は精度でSOTAの性能を1-5%向上させることができることを示す。
論文 参考訳(メタデータ) (2023-07-28T12:30:41Z) - Contrastive Shapelet Learning for Unsupervised Multivariate Time Series
Representation Learning [21.437162740349045]
教師なし表現学習(URL)は、アクセス不能なラベルを使わずに、多くの下流タスクの一般化可能な表現を学習する能力を持つ。
本稿では,一般的なコントラスト学習パラダイムを通じて時系列固有のシェープレットに基づく表現を学習し,新しいURLフレームワークを提案する。
統一型シェープレットベースのエンコーダと,マルチグレードコントラストとマルチスケールアライメントを備えた新しい学習目標が,目的達成のために特に設計されている。
論文 参考訳(メタデータ) (2023-05-30T09:31:57Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - DyG2Vec: Efficient Representation Learning for Dynamic Graphs [26.792732615703372]
時間グラフニューラルネットワークは、時間パターンを自動的に抽出することで、帰納的表現の学習において有望な結果を示している。
時間的エッジエンコーディングとウィンドウベースのサブグラフサンプリングを利用してタスクに依存しない埋め込みを生成する。
論文 参考訳(メタデータ) (2022-10-30T18:13:04Z) - Large Scale Time-Series Representation Learning via Simultaneous Low and
High Frequency Feature Bootstrapping [7.0064929761691745]
本稿では,非コントラスト型自己教師型学習手法を提案する。
提案手法は生の時系列データを入力として、モデルの2つのブランチに対して2つの異なる拡張ビューを生成する。
モデルの堅牢性を実証するために,5つの実世界の時系列データセットに関する広範な実験とアブレーション研究を行った。
論文 参考訳(メタデータ) (2022-04-24T14:39:47Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z) - Learning multiview 3D point cloud registration [74.39499501822682]
本稿では,エンドツーエンドで学習可能なマルチビュー3Dポイントクラウド登録アルゴリズムを提案する。
このアプローチは、エンドツーエンドのトレーニングが可能で、計算コストが小さく、最先端のマージンよりも優れています。
論文 参考訳(メタデータ) (2020-01-15T03:42:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。