論文の概要: Kernel-U-Net: Symmetric and Hierarchical Architecture for Multivariate
Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2401.01479v2
- Date: Mon, 12 Feb 2024 03:50:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 21:09:13.915452
- Title: Kernel-U-Net: Symmetric and Hierarchical Architecture for Multivariate
Time Series Forecasting
- Title(参考訳): kernel-u-net:多変量時系列予測のための対称階層アーキテクチャ
- Authors: Jiang You, Ren\'e Natowicz, Arben Cela, Jacob Ouanounou, Patrick
Siarry
- Abstract要約: Kernel-U-Netは対称的で階層的なU字型ニューラルネットワークアーキテクチャである。
1)特定のデータセットに適応するためのカーネルのカスタマイズの柔軟性、2)トランスフォーマー層の複雑さを線形に減らした計算効率の向上、である。
Kernel-U-Netのソースコードは、さらなる研究とアプリケーションのために公開されている。
- 参考スコア(独自算出の注目度): 2.0186752447895993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series forecasting task predicts future trends based on historical
information. Transformer-based U-Net architectures, despite their success in
medical image segmentation, have limitations in both expressiveness and
computation efficiency in time series forecasting as evidenced in YFormer. To
tackle these challenges, we introduce Kernel-U-Net, a symmetric and
hierarchical U-shape neural network architecture. The kernel-U-Net encoder
compresses gradually input series into latent vectors, and its symmetric
decoder subsequently expands these vectors into output series. Specifically,
Kernel-U-Net separates the procedure of partitioning input time series into
patches from kernel manipulation, thereby providing the convenience of
executing customized kernels. Our method offers two primary advantages: 1)
Flexibility in kernel customization to adapt to specific datasets; 2) Enhanced
computational efficiency, with the complexity of the Transformer layer reduced
to linear. Experiments on seven real-world datasets, considering both
multivariate and univariate settings, demonstrate that Kernel-U-Net's
performance either exceeds or meets that of the existing state-of-the-art model
PatchTST in the majority of cases and outperforms Yformer. The source code for
Kernel-U-Net will be made publicly available for further research and
application.
- Abstract(参考訳): 時系列予測タスクは、履歴情報に基づいて将来のトレンドを予測する。
トランスフォーマーベースのU-Netアーキテクチャは、医用画像セグメンテーションの成功にもかかわらず、YFormerで証明されているように、時系列予測における表現性と計算効率に制限がある。
これらの課題に取り組むために、対称で階層的なu字型ニューラルネットワークアーキテクチャであるkernel-u-netを導入する。
kernel-u-netエンコーダは徐々に入力列を潜在ベクトルに圧縮し、対称デコーダはそのベクトルを出力列に拡張する。
具体的には、kernel-u-netは、入力時系列をカーネル操作からパッチに分割する手順を分離し、カスタマイズされたカーネルの実行の利便性を提供する。
この方法の主な利点は2つあります
1) 特定のデータセットに適応するためのカーネルカスタマイズの柔軟性
2) 計算効率は向上し, トランスフォーマー層の複雑さは線形に低下した。
実世界の7つのデータセットの実験では、多変量と単変量の両方の設定を考慮して、Kernel-U-Netのパフォーマンスが、ほとんどのケースで既存の最先端モデルであるPatchTSTを上回るか、あるいは満たすことを示した。
Kernel-U-Netのソースコードは、さらなる研究とアプリケーションのために公開されている。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - ConvTimeNet: A Deep Hierarchical Fully Convolutional Model for
Multivariate Time Series Analysis [8.560776357590088]
ConvTimeNetは、時系列解析のための汎用モデルとして設計された、新しい階層的完全畳み込みネットワークである。
結果は、ほとんどの状況において、有効性という点で、一貫して強いベースラインを上回りました。
論文 参考訳(メタデータ) (2024-03-03T12:05:49Z) - WinNet: Make Only One Convolutional Layer Effective for Time Series Forecasting [11.232780368635416]
我々は、WinNetと呼ばれる1つの畳み込み層しか持たない非常に正確で単純なCNNベースのモデルを提案する。
その結果、WinNetは、CNNベースのメソッドよりもSOTA性能と複雑さが低いことを実証した。
論文 参考訳(メタデータ) (2023-11-01T01:23:59Z) - Tensor Slicing and Optimization for Multicore NPUs [2.670309629218727]
本稿では,Slicing Optimization (TSO) と呼ばれるマルチコアNPUに対するコンパイラ最適化パスを提案する。
TSOは、一連のCNNモデルの実行時間を最小化する最高のテンソルスライシングを特定する。
その結果、TSOは一連のCNNモデルの実行時間を最小化する最適なテンソルスライシングを識別できることがわかった。
論文 参考訳(メタデータ) (2023-04-06T12:03:03Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - FlexConv: Continuous Kernel Convolutions with Differentiable Kernel
Sizes [34.90912459206022]
最近の研究によると、CNNは異なるレイヤの異なるカーネルサイズから恩恵を受けているが、実際にはすべての可能な組み合わせを探索することは不可能である。
本稿では,学習可能なカーネルサイズの高い帯域幅の畳み込みカーネルを固定パラメータコストで学習可能な新しい畳み込み演算FlexConvを提案する。
論文 参考訳(メタデータ) (2021-10-15T12:35:49Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - PolyScientist: Automatic Loop Transformations Combined with Microkernels
for Optimization of Deep Learning Primitives [55.79741270235602]
深層学習カーネル開発のためのハイブリッドソリューションを開発する。
我々は、高度な多面体技術を用いて、パフォーマンスのために外部ループを自動的に調整する。
論文 参考訳(メタデータ) (2020-02-06T08:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。