論文の概要: TVNet: A Novel Time Series Analysis Method Based on Dynamic Convolution and 3D-Variation
- arxiv url: http://arxiv.org/abs/2503.07674v1
- Date: Mon, 10 Mar 2025 03:30:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:45:26.750048
- Title: TVNet: A Novel Time Series Analysis Method Based on Dynamic Convolution and 3D-Variation
- Title(参考訳): TVNet:動的畳み込みと3次元変動に基づく新しい時系列解析手法
- Authors: Chenghan Li, Mingchen Li, Ruisheng Diao,
- Abstract要約: 本稿では, パッチ間, パッチ内, 可変次元を考慮した新しい時系列再構成手法を提案する。
本稿では3次元視点を利用して時系列解析を行う動的畳み込みネットワークTVNetを提案する。
TVNetはCNNの計算効率を保ち、5つの主要な時系列解析タスクにおいて最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 7.332652485849632
- License:
- Abstract: With the recent development and advancement of Transformer and MLP architectures, significant strides have been made in time series analysis. Conversely, the performance of Convolutional Neural Networks (CNNs) in time series analysis has fallen short of expectations, diminishing their potential for future applications. Our research aims to enhance the representational capacity of Convolutional Neural Networks (CNNs) in time series analysis by introducing novel perspectives and design innovations. To be specific, We introduce a novel time series reshaping technique that considers the inter-patch, intra-patch, and cross-variable dimensions. Consequently, we propose TVNet, a dynamic convolutional network leveraging a 3D perspective to employ time series analysis. TVNet retains the computational efficiency of CNNs and achieves state-of-the-art results in five key time series analysis tasks, offering a superior balance of efficiency and performance over the state-of-the-art Transformer-based and MLP-based models. Additionally, our findings suggest that TVNet exhibits enhanced transferability and robustness. Therefore, it provides a new perspective for applying CNN in advanced time series analysis tasks.
- Abstract(参考訳): 近年の Transformer および MLP アーキテクチャの発展に伴い,時系列解析において重要な進歩を遂げている。
逆に、時系列分析における畳み込みニューラルネットワーク(CNN)の性能は期待に届かず、将来の応用の可能性も低下している。
本研究の目的は,進化型ニューラルネットワーク(CNN)の時系列解析における表現能力の向上である。
具体的には, パッチ間, パッチ内, 可変次元を考慮した時系列再構成手法を提案する。
そこで本研究では,3次元視点を利用して時系列解析を行う動的畳み込みネットワークTVNetを提案する。
TVNetは、CNNの計算効率を保ち、5つの主要な時系列分析タスクで最先端の結果を達成し、最先端のトランスフォーマーベースモデルとMLPベースのモデルよりも効率と性能のバランスが優れている。
さらに,TVNetは転送性やロバスト性の向上が示唆された。
そのため、CNNを高度な時系列解析タスクに適用するための新たな視点を提供する。
関連論文リスト
- Exploring Neural Network Pruning with Screening Methods [3.443622476405787]
現代のディープラーニングモデルは数千万のパラメータを持ち、推論プロセスはリソース集約化されている。
本稿では,非必須パラメータを除去するネットワーク・プルーニング・フレームワークの提案と評価を行う。
提案するフレームワークは,従来のネットワークと比較して,競争力のあるリーンネットワークを生成する。
論文 参考訳(メタデータ) (2025-02-11T02:31:04Z) - VidFormer: A novel end-to-end framework fused by 3DCNN and Transformer for Video-based Remote Physiological Measurement [9.605944796068046]
本稿では、畳み込みネットワーク(CNN)とrタスクのモデルを統合する新しいフレームワークであるVidFormerを紹介する。
5つの公開データセットに対する評価は、VidFormerが現在のSOTA(State-of-the-art)メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2025-01-03T08:18:08Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Incorporating Taylor Series and Recursive Structure in Neural Networks
for Time Series Prediction [0.29008108937701327]
時系列分析は物理学、生物学、化学、金融など様々な分野に関係している。
本稿では、ResNet構造から要素を統合するニューラルネットワークアーキテクチャについて紹介し、革新的なTaylorシリーズフレームワークを紹介した。
論文 参考訳(メタデータ) (2024-02-09T14:34:28Z) - A Survey on Graph Neural Networks for Time Series: Forecasting, Classification, Imputation, and Anomaly Detection [98.41798478488101]
時系列分析は、利用可能なデータに暗黙的な情報の富を解放するために不可欠である。
グラフニューラルネットワーク(GNN)の最近の進歩は、時系列解析のためのGNNベースのアプローチの急増につながっている。
この調査は、GNNベースの時系列研究に関する膨大な知識をまとめ、基礎、実践的応用、時系列分析のためのグラフニューラルネットワークの機会を強調します。
論文 参考訳(メタデータ) (2023-07-07T08:05:03Z) - Efficient Online Processing with Deep Neural Networks [1.90365714903665]
この論文は、ニューラルネットワークの効率性に特化しています。特に、コアコントリビューションは、オンライン推論の効率面に対処します。
これらの進歩は、ボトムアップの計算再構成と司法的なアーキテクチャ修正によって達成される。
論文 参考訳(メタデータ) (2023-06-23T12:29:44Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - Convolutional Neural Network Dynamics: A Graph Perspective [39.81881710355496]
本稿では,NNのグラフ構造と性能の関係について検討する。
NNの動的グラフ表現について、完全連結層と畳み込み層の構造表現について検討する。
解析により, NNの性能を正確に予測するために, グラフ統計の簡単な要約を用いることができることがわかった。
論文 参考訳(メタデータ) (2021-11-09T20:38:48Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。