論文の概要: A Temporal Linear Network for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2410.21448v1
- Date: Mon, 28 Oct 2024 18:51:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:39:58.300679
- Title: A Temporal Linear Network for Time Series Forecasting
- Title(参考訳): 時系列予測のための時間線形ネットワーク
- Authors: Remi Genet, Hugo Inzirillo,
- Abstract要約: 本稿では,線形モデルの能力を拡張しつつ,解釈性と計算効率を向上する時間線形ネット(TLN)を提案する。
我々のアプローチはアーキテクチャ全体を通して厳密な線形性を維持するTSMixerの変種である。
TLNの重要な革新は、同等の線形モデルを計算する能力であり、TSMixerのようなより複雑なアーキテクチャでは見つからないレベルの解釈性を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recent research has challenged the necessity of complex deep learning architectures for time series forecasting, demonstrating that simple linear models can often outperform sophisticated approaches. Building upon this insight, we introduce a novel architecture the Temporal Linear Net (TLN), that extends the capabilities of linear models while maintaining interpretability and computational efficiency. TLN is designed to effectively capture both temporal and feature-wise dependencies in multivariate time series data. Our approach is a variant of TSMixer that maintains strict linearity throughout its architecture. TSMixer removes activation functions, introduces specialized kernel initializations, and incorporates dilated convolutions to handle various time scales, while preserving the linear nature of the model. Unlike transformer-based models that may lose temporal information due to their permutation-invariant nature, TLN explicitly preserves and leverages the temporal structure of the input data. A key innovation of TLN is its ability to compute an equivalent linear model, offering a level of interpretability not found in more complex architectures such as TSMixer. This feature allows for seamless conversion between the full TLN model and its linear equivalent, facilitating both training flexibility and inference optimization.
- Abstract(参考訳): 近年の研究では、時系列予測のための複雑なディープラーニングアーキテクチャの必要性に挑戦し、単純な線形モデルが洗練されたアプローチよりも優れていることを示した。
この知見に基づいて、線形モデルの能力を拡張しつつ、解釈可能性と計算効率を維持できる、新しいアーキテクチャTLN(Temporal Linear Net)を導入する。
TLNは、多変量時系列データにおける時間的および機能的依存関係の両方を効果的にキャプチャするように設計されている。
我々のアプローチはアーキテクチャ全体を通して厳密な線形性を維持するTSMixerの変種である。
TSMixerはアクティベーション関数を削除し、特別なカーネル初期化を導入し、拡張畳み込みを組み込んで様々な時間スケールを処理し、モデルの線形性を保っている。
変圧器に基づくモデルとは異なり、TLNは入力データの時間構造を明示的に保存し、活用する。
TLNの重要な革新は、同等の線形モデルを計算する能力であり、TSMixerのようなより複雑なアーキテクチャでは見つからないレベルの解釈性を提供する。
この機能により、完全なTLNモデルと線形同値モデルのシームレスな変換が可能になり、トレーニングの柔軟性と推論の最適化が容易になる。
関連論文リスト
- Balanced Neural ODEs: nonlinear model order reduction and Koopman operator approximations [0.0]
変分オートエンコーダ(VAE)はコンパクトな潜在表現を学習するための強力なフレームワークである。
ニューラルネットワークは過渡系力学の学習において優れている。
この研究は両者の強みを組み合わせることで、高速な代理モデルと調整可能な複雑さを生み出す。
論文 参考訳(メタデータ) (2024-10-14T05:45:52Z) - FocusLearn: Fully-Interpretable, High-Performance Modular Neural Networks for Time Series [0.3277163122167434]
本稿では,構築によって解釈可能な時系列予測のための新しいモジュール型ニューラルネットワークモデルを提案する。
リカレントニューラルネットワークはデータ内の時間的依存関係を学習し、アテンションベースの特徴選択コンポーネントは最も関連性の高い特徴を選択する。
モジュール型のディープネットワークは、選択した機能から独立してトレーニングされ、ユーザーが機能がどのように結果に影響を与えるかを示し、モデルを解釈できる。
論文 参考訳(メタデータ) (2023-11-28T14:51:06Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - Diffeomorphic Transformations for Time Series Analysis: An Efficient
Approach to Nonlinear Warping [0.0]
多くの分野にわたる時間データの拡散と普遍性は、類似性、分類、クラスタリング手法への関心を喚起した。
ユークリッドのような伝統的な距離測度は、時間に依存したデータの性質のため適していない。
この論文は、パラメトリックおよび微分同相のワープ変換を用いる新しい弾性アライメント法を提案する。
論文 参考訳(メタデータ) (2023-09-25T10:51:47Z) - Neural Koopman prior for data assimilation [7.875955593012905]
ニューラルネットワークアーキテクチャを使って、潜在空間に動的システムを埋め込む。
本研究では,このようなモデルを長期の継続的再構築のために訓練する手法を提案する。
また,変動データ同化手法の先行として,訓練された動的モデルの有望な利用を示すとともに,自己教師型学習の可能性も示された。
論文 参考訳(メタデータ) (2023-09-11T09:04:36Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。