論文の概要: RTFN: Robust Temporal Feature Network
- arxiv url: http://arxiv.org/abs/2008.07707v2
- Date: Tue, 29 Dec 2020 02:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 20:47:05.066575
- Title: RTFN: Robust Temporal Feature Network
- Title(参考訳): RTFN:ロバストな時間的特徴ネットワーク
- Authors: Zhiwen Xiao, Xin Xu, Huanlai Xing and Juan Chen
- Abstract要約: 本稿では、時間的特徴ネットワークと注目LSTMネットワークを含む、新しい頑健な時間的特徴ネットワーク(RTFN)を提案する。
基本的な時間ネットワークは、複雑なシェープレットとデータ強化の関係をキャプチャするために構築されている。
実験では,機能ネットワークとして教師付き構造に,エンコーダとして教師なしクラスタリングにNを組み込む。
- 参考スコア(独自算出の注目度): 10.304629792265223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series analysis plays a vital role in various applications, for
instance, healthcare, weather prediction, disaster forecast, etc. However, to
obtain sufficient shapelets by a feature network is still challenging. To this
end, we propose a novel robust temporal feature network (RTFN) that contains
temporal feature networks and attentional LSTM networks. The temporal feature
networks are built to extract basic features from input data while the
attentional LSTM networks are devised to capture complicated shapelets and
relationships to enrich features. In experiments, we embed RTFN into supervised
structure as a feature extraction network and into unsupervised clustering as
an encoder, respectively. The results show that the RTFN-based supervised
structure is a winner of 40 out of 85 datasets and the RTFN-based unsupervised
clustering performs the best on 4 out of 11 datasets in the UCR2018 archive.
- Abstract(参考訳): 時系列分析は、医療、天気予報、災害予報など、さまざまなアプリケーションにおいて重要な役割を果たす。
しかし,機能ネットワークによるシェープレットの確保は依然として困難である。
そこで本稿では,時間的特徴ネットワークと注意型LSTMネットワークを含む,新しい頑健な時間的特徴ネットワーク(RTFN)を提案する。
時間的特徴ネットワークは入力データから基本的な特徴を抽出するために構築され、注意的LSTMネットワークは複雑な形状や特徴の豊富な関係を捉えるために考案されている。
実験では,rtfnを特徴抽出ネットワークとして教師付き構造に,教師なしクラスタリングをエンコーダとして組み込む。
結果は、RTFNベースの教師付き構造は85のデータセットのうち40の勝者であり、RTFNベースの教師なしクラスタリングは、UCC2018アーカイブの11のデータセットのうち4つで最高であることを示している。
関連論文リスト
- Graph Expansion in Pruned Recurrent Neural Network Layers Preserve Performance [7.142235510048155]
我々は、RNNやLSTMのような再帰的なネットワークを創り出し、基礎となるグラフのスペクトルギャップを大きく維持する。
また、2部層の性質の観点から、時間展開された再帰的ネットワークグラフについても検討する。
論文 参考訳(メタデータ) (2024-03-17T06:08:08Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Fast Temporal Wavelet Graph Neural Networks [7.477634824955323]
時系列データに基づくタスク学習のためのFTWGNN(Fast Temporal Wavelet Graph Neural Networks)を提案する。
我々は高密度グラフ構造を分解し、対応するスパースウェーブレット基底を計算するために、MMF(Multi resolution Matrix Factorization)を用いる。
実世界のPEMS-BAY, METR-LAトラフィックデータセット, AJILE12 ECoGデータセットによる実験結果から,FTWGNNは最先端技術と競合していることが示された。
論文 参考訳(メタデータ) (2023-02-17T01:21:45Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Space-Time Graph Neural Networks [104.55175325870195]
本研究では、時空間グラフニューラルネットワーク(ST-GNN)を導入し、時間変動ネットワークデータの時空間トポロジを共同処理する。
解析の結果,システムのネットワークトポロジと時間進化の変動はST-GNNの性能に大きく影響しないことがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:08:44Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - RTFN: A Robust Temporal Feature Network for Time Series Classification [9.982074664830867]
時系列データは通常、ローカルパターンとグローバルパターンを含む。
特徴ネットワークによる表現を得ることはまだ困難である。
我々は、新しい時間的特徴ネットワーク(TFN)とLSTMベースの注目ネットワーク(LSTMaN)を提案する。
論文 参考訳(メタデータ) (2020-11-24T01:24:04Z) - TSAM: Temporal Link Prediction in Directed Networks based on
Self-Attention Mechanism [2.5144068869465994]
本稿では,グラフニューラルネットワーク(GCN)と自己認識機構,すなわちTSAMに基づくディープラーニングモデルを提案する。
我々は,TSAMの有効性を検証するために,4つの現実的ネットワーク上で比較実験を行った。
論文 参考訳(メタデータ) (2020-08-23T11:56:40Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - Instance Explainable Temporal Network For Multivariate Timeseries [0.0]
本稿では,推論のインスタンスごとの分類決定において重要なチャネルを識別する新しいネットワーク(IETNet)を提案する。
IETNetは、時間的特徴抽出、変数選択、共同変数の相互作用を単一の学習フレームワークに組み合わせたエンドツーエンドネットワークである。
論文 参考訳(メタデータ) (2020-05-26T20:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。