論文の概要: Inner-Instance Normalization for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2510.08657v1
- Date: Thu, 09 Oct 2025 12:24:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.303518
- Title: Inner-Instance Normalization for Time Series Forecasting
- Title(参考訳): 時系列予測のためのインナーインスタンス正規化
- Authors: Zipo Jibao, Yingyi Fu, Xinyang Chen, Guoting Chen,
- Abstract要約: 実世界の時系列は多くの要因に影響され、複雑な非定常特性を示す。
学習条件分布(LCD)と学習条件分布(LD)の2つの新しいポイントレベル手法を提案する。
各種バックボーンモデルを用いた2つの手法の性能評価を行った。
- 参考スコア(独自算出の注目度): 6.172896406435563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world time series are influenced by numerous factors and exhibit complex non-stationary characteristics. Non-stationarity can lead to distribution shifts, where the statistical properties of time series change over time, negatively impacting model performance. Several instance normalization techniques have been proposed to address distribution shifts in time series forecasting. However, existing methods fail to account for shifts within individual instances, leading to suboptimal performance. To tackle inner-instance distribution shifts, we propose two novel point-level methods: Learning Distribution (LD) and Learning Conditional Distribution (LCD). LD eliminates internal discrepancies by fitting the internal distribution of input and output with different parameters at different time steps, while LCD utilizes neural networks to predict scaling coefficients of the output. We evaluate the performance of the two methods with various backbone models across public benchmarks and demonstrate the effectiveness of the point-level paradigm through comparative experiments.
- Abstract(参考訳): 実世界の時系列は多くの要因に影響され、複雑な非定常特性を示す。
非定常性は、時間とともに時系列の統計的性質が変化し、モデルの性能に悪影響を及ぼす分散シフトをもたらす。
時系列予測における分布シフトに対処するいくつかのインスタンス正規化手法が提案されている。
しかし、既存のメソッドは個々のインスタンス内のシフトを考慮できません。
内在分布シフトに対処するため,学習条件分布(LD)と学習条件分布(LCD)の2つの新しいポイントレベル手法を提案する。
LDは入力と出力の内部分布を異なる時間ステップで異なるパラメータに合わせることで内部の差異を解消し、LCDはニューラルネットワークを使用して出力のスケーリング係数を予測する。
各種バックボーンモデルを用いた2つの手法の性能評価を行い、比較実験によりポイントレベルのパラダイムの有効性を実証した。
関連論文リスト
- Temporal Variational Implicit Neural Representations [15.54978130621565]
本稿では,不規則な多変量時系列をモデル化するための確率的フレームワーク,TV-INR(Temporal Variational Implicit Neural Representation)を紹介する。
TV-INRは、1つの前方通過を通して正確な個別化予測を行う。
計算処理における平均二乗誤差の桁違いに既存の手法を上回ります。
論文 参考訳(メタデータ) (2025-06-02T11:12:30Z) - Amortized Posterior Sampling with Diffusion Prior Distillation [55.03585818289934]
Amortized Posterior Smplingは、逆問題における効率的な後方サンプリングのための新しい変分推論手法である。
本手法は,拡散モデルにより暗黙的に定義された変動分布と後続分布とのばらつきを最小限に抑えるために条件付き流れモデルを訓練する。
既存の手法とは異なり、我々のアプローチは教師なしであり、ペア化されたトレーニングデータを必要としておらず、ユークリッドと非ユークリッドの両方のドメインに適用できる。
論文 参考訳(メタデータ) (2024-07-25T09:53:12Z) - Robust Multivariate Time Series Forecasting against Intra- and Inter-Series Transitional Shift [40.734564394464556]
本稿では,時系列内/時系列間の相関関係を統合的に把握し,時変遷移分布をモデル化するための統一確率グラフモデルを提案する。
6つの高定常MTSデータセットに対する広範囲な実験により、JointPGMの有効性と効率を検証した。
論文 参考訳(メタデータ) (2024-07-18T06:16:03Z) - IN-Flow: Instance Normalization Flow for Non-stationary Time Series Forecasting [38.4809915448213]
固定統計量に依存しない時系列予測のための分離された定式化を提案する。
また、時系列変換のための新しい可逆ネットワークであるインスタンス正規化フロー(IN-Flow)を提案する。
論文 参考訳(メタデータ) (2024-01-30T06:35:52Z) - Invariant Anomaly Detection under Distribution Shifts: A Causal
Perspective [6.845698872290768]
異常検出(AD、Anomaly Detection)は、異常なサンプルを識別する機械学習タスクである。
分散シフトの制約の下では、トレーニングサンプルとテストサンプルが同じ分布から引き出されるという仮定が崩壊する。
我々は,異常検出モデルのレジリエンスを,異なる種類の分布シフトに高めようとしている。
論文 参考訳(メタデータ) (2023-12-21T23:20:47Z) - Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation for Time Series [45.76310830281876]
量子回帰に基づくタスクネットワークのアンサンブルを用いて不確実性を推定する新しい手法であるQuantile Sub-Ensemblesを提案する。
提案手法は,高い損失率に頑健な高精度な計算法を生成するだけでなく,非生成モデルの高速な学習により,計算効率も向上する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Compatible Transformer for Irregularly Sampled Multivariate Time Series [75.79309862085303]
本研究では,各サンプルに対して総合的な時間的相互作用特徴学習を実現するためのトランスフォーマーベースのエンコーダを提案する。
実世界の3つのデータセットについて広範な実験を行い、提案したCoFormerが既存の手法を大幅に上回っていることを検証した。
論文 参考訳(メタデータ) (2023-10-17T06:29:09Z) - DIVERSIFY: A General Framework for Time Series Out-of-distribution
Detection and Generalization [58.704753031608625]
時系列は、機械学習研究における最も困難なモダリティの1つである。
時系列上でのOODの検出と一般化は、その非定常性によって悩まされる傾向がある。
時系列の動的分布のOOD検出と一般化のためのフレームワークであるDIVERSIFYを提案する。
論文 参考訳(メタデータ) (2023-08-04T12:27:11Z) - Supervised Contrastive Learning with Heterogeneous Similarity for
Distribution Shifts [3.7819322027528113]
本稿では,教師付きコントラスト学習を用いた新たな正規化手法を提案する。
サブポピュレーションシフトや領域一般化などの分布シフトをエミュレートするベンチマークデータセットの実験は,提案手法の利点を実証している。
論文 参考訳(メタデータ) (2023-04-07T01:45:09Z) - Robust Calibration with Multi-domain Temperature Scaling [86.07299013396059]
我々は,複数の領域からのデータを活用することで,分散シフトを処理するシステムキャリブレーションモデルを開発した。
提案手法は,分布シフト時のキャリブレーションを改善するために,領域内のロバスト性を利用する。
論文 参考訳(メタデータ) (2022-06-06T17:32:12Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。