論文の概要: Preserving Seasonal and Trend Information: A Variational Autoencoder-Latent Space Arithmetic Based Approach for Non-stationary Learning
- arxiv url: http://arxiv.org/abs/2504.18819v1
- Date: Sat, 26 Apr 2025 06:29:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.006696
- Title: Preserving Seasonal and Trend Information: A Variational Autoencoder-Latent Space Arithmetic Based Approach for Non-stationary Learning
- Title(参考訳): 季節情報とトレンド情報を保存する:非定常学習のための変分オートエンコーダ-潜時空間算術的アプローチ
- Authors: Hassan Wasswa, Aziida Nanyonga, Timothy Lynar,
- Abstract要約: 本研究は,季節情報と傾向を保存しつつ,潜伏空間内の定常挙動を抑える手法を提案する。
この手法の傾向と季節情報を保存する能力は,2つの時系列非定常データセットで評価された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI models have garnered significant research attention towards predictive task automation. However, a stationary training environment is an underlying assumption for most models and such models simply do not work on non-stationary data since a stationary relationship is learned. The existing solutions propose making data stationary prior to model training and evaluation. This leads to loss of trend and seasonal patterns which are vital components for learning temporal dependencies of the system under study. This research aims to address this limitation by proposing a method for enforcing stationary behaviour within the latent space while preserving trend and seasonal information. The method deploys techniques including Differencing, Time-series decomposition, and Latent Space Arithmetic (LSA), to learn information vital for efficient approximation of trend and seasonal information which is then stored as embeddings within the latent space of a Variational Autoencoder (VAE). The approach's ability to preserve trend and seasonal information was evaluated on two time-series non-stationary datasets. For predictive performance evaluation, four deep learning models were trained on the latent vector representations of the datasets after application of the proposed method and all models produced competitive results in comparison with state-of-the-art techniques using RMSE as the performance metric.
- Abstract(参考訳): AIモデルは、予測タスク自動化に対する重要な研究の注目を集めている。
しかし、静止学習環境は、ほとんどのモデルにおいて基礎となる前提であり、そのようなモデルは、静止関係が学習されるため、単に静止データ上では機能しない。
既存のソリューションでは、モデルトレーニングや評価に先立って、データの定常化が提案されている。
これにより、研究中のシステムの時間的依存関係を学ぶ上で不可欠なトレンドや季節的なパターンが失われる。
本研究の目的は、トレンドや季節情報を保存しつつ、潜伏空間内での定常動作を抑える方法を提案することである。
ディフレクション、時系列分解、潜時空間算術(LSA)などの手法を展開し、トレンドと季節情報の効率的な近似に不可欠な情報を学び、次に変動オートエンコーダ(VAE)の潜時空間内に埋め込みとして格納する。
この手法の傾向と季節情報を保存する能力は,2つの時系列非定常データセットで評価された。
予測性能評価のために,提案手法を適用した後,データセットの潜在ベクトル表現に基づいて4つのディープラーニングモデルを訓練し,RMSEを性能指標とした最先端技術と比較して,全てのモデルが競合する結果を得た。
関連論文リスト
- An Efficient Continual Learning Framework for Multivariate Time Series Prediction Tasks with Application to Vehicle State Estimation [11.197937792525684]
本稿では,連続学習を時系列タスクで処理するEM-ReSeleCTを提案する。
提案手法は,古・歴史的データから代表的なサブセットを戦略的に選択する。
また,車両状態推定に特化して設計されたシーケンス・ツー・シーケンス・トランスフォーマモデル(自己回帰モデル)を開発した。
論文 参考訳(メタデータ) (2025-03-03T15:42:06Z) - Capturing the Temporal Dependence of Training Data Influence [100.91355498124527]
我々は、訓練中にデータポイントを除去する影響を定量化する、軌跡特異的な離脱の影響の概念を定式化する。
軌道固有LOOの効率的な近似を可能にする新しい手法であるデータ値埋め込みを提案する。
データバリューの埋め込みは、トレーニングデータの順序付けをキャプチャするので、モデルトレーニングのダイナミクスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-12T18:28:55Z) - Topological Approach for Data Assimilation [0.4972323953932129]
トポロジカルデータ解析の基礎となる新しいデータ同化アルゴリズムを提案する。
パーシステンス関数の微分可能性を活用することにより、勾配勾配最適化は、測定と予測予測の間の位相的差を最小限に抑えるために用いられる。
論文 参考訳(メタデータ) (2024-11-12T20:24:46Z) - On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Distilled Datamodel with Reverse Gradient Matching [74.75248610868685]
オフライントレーニングとオンライン評価段階を含む,データ影響評価のための効率的なフレームワークを提案する。
提案手法は, 直接再学習法と比較して, プロセスの大幅な高速化を図りながら, 同等のモデル行動評価を実現する。
論文 参考訳(メタデータ) (2024-04-22T09:16:14Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Survey of Federated Learning Models for Spatial-Temporal Mobility
Applications [9.896508514316812]
フェデレートラーニング(FL)は、空間時間モデルを訓練するための理想的な候補として機能する。
既存の時空間モデルから分散学習への移行には,ユニークな課題がある。
論文 参考訳(メタデータ) (2023-05-09T08:26:48Z) - iSAGE: An Incremental Version of SAGE for Online Explanation on Data
Streams [8.49072000414555]
iSAGEは、SAGEの時間およびメモリ効率のインクリメンタル化である。
iSAGE は SAGE と同様の理論的性質を持つことを示す。
論文 参考訳(メタデータ) (2023-03-02T11:51:54Z) - A Meta-learning Approach to Reservoir Computing: Time Series Prediction
with Limited Data [0.0]
本研究では,実験プロセスから適切なモデル構造を自動的に抽出するデータ駆動型手法を提案する。
簡単なベンチマーク問題に対して,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2021-10-07T18:23:14Z) - Learning Neural Models for Natural Language Processing in the Face of
Distributional Shift [10.990447273771592]
特定のデータセットでひとつのタスクを実行するための強力な神経予測器をトレーニングするNLPのパラダイムが、さまざまなアプリケーションで最先端のパフォーマンスを実現している。
データ分布が定常である、すなわち、トレーニングとテストの時間の両方で、データは固定された分布からサンプリングされる、という仮定に基づいて構築される。
この方法でのトレーニングは、人間が絶えず変化する情報の流れの中で学習し、操作できる方法と矛盾する。
データ分散がモデル寿命の経過とともにシフトすることが期待される実世界のユースケースに不適応である。
論文 参考訳(メタデータ) (2021-09-03T14:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。