論文の概要: Hidden Leaks in Time Series Forecasting: How Data Leakage Affects LSTM Evaluation Across Configurations and Validation Strategies
- arxiv url: http://arxiv.org/abs/2512.06932v1
- Date: Sun, 07 Dec 2025 17:21:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.595481
- Title: Hidden Leaks in Time Series Forecasting: How Data Leakage Affects LSTM Evaluation Across Configurations and Validation Strategies
- Title(参考訳): 時系列予測における隠れリーク:データ漏洩がLSTM評価に与える影響
- Authors: Salma Albelali, Moataz Ahmed,
- Abstract要約: 本研究では,データ漏洩が性能に与える影響について検討する。
これは、バリデーション設計が漏洩感度をどのように仲介するかに焦点を当てている。
これらの知見は、構成対応、リーク耐性評価パイプラインの必要性を浮き彫りにした。
- 参考スコア(独自算出の注目度): 0.04774522315161165
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep learning models, particularly Long Short-Term Memory (LSTM) networks, are widely used in time series forecasting due to their ability to capture complex temporal dependencies. However, evaluation integrity is often compromised by data leakage, a methodological flaw in which input-output sequences are constructed before dataset partitioning, allowing future information to unintentionally influence training. This study investigates the impact of data leakage on performance, focusing on how validation design mediates leakage sensitivity. Three widely used validation techniques (2-way split, 3-way split, and 10-fold cross-validation) are evaluated under both leaky (pre-split sequence generation) and clean conditions, with the latter mitigating leakage risk by enforcing temporal separation during data splitting prior to sequence construction. The effect of leakage is assessed using RMSE Gain, which measures the relative increase in RMSE caused by leakage, computed as the percentage difference between leaky and clean setups. Empirical results show that 10-fold cross-validation exhibits RMSE Gain values of up to 20.5% at extended lag steps. In contrast, 2-way and 3-way splits demonstrate greater robustness, typically maintaining RMSE Gain below 5% across diverse configurations. Moreover, input window size and lag step significantly influence leakage sensitivity: smaller windows and longer lags increase the risk of leakage, whereas larger windows help reduce it. These findings underscore the need for configuration-aware, leakage-resistant evaluation pipelines to ensure reliable performance estimation.
- Abstract(参考訳): ディープラーニングモデル、特にLong Short-Term Memory(LSTM)ネットワークは、複雑な時間的依存関係をキャプチャする能力のため、時系列予測で広く使用されている。
しかし、評価の整合性はしばしば、データセット分割の前に入力出力シーケンスが構築される方法論上の欠陥であるデータ漏洩によって損なわれ、将来の情報が意図せずにトレーニングに影響を及ぼす。
本研究では,データ漏洩が性能に与える影響について検討し,評価設計が漏洩感度をどのように媒介するかに着目した。
3つの広く利用されている検証手法(2方向分割, 3方向分割, 10倍のクロスバリデーション)を, リーク性(プリスプリットシーケンス生成)とクリーン条件の両方で評価し, 後者は, シーケンシャルコンストラクション前におけるデータ分割時の時間的分離を緩和することにより, リークリスクを軽減した。
リークによるRMSEの相対的な増加を測定するRMSEゲインを用いてリークの影響を評価する。
実験の結果、10倍のクロスバリデーションでRMSEゲイン値が最大20.5%まで伸びることが明らかとなった。
対照的に、2方向と3方向の分割はより堅牢性を示し、通常、様々な構成でRMSEゲインを5%以下に維持する。
さらに、入力ウィンドウサイズとラグステップはリーク感度に大きく影響し、より小さなウィンドウと長いラグはリークのリスクを増大させる一方、より大きなウィンドウはそれを減らすのに役立つ。
これらの結果は、信頼性の高い性能評価を保証するために、構成対応、リーク耐性評価パイプラインの必要性を浮き彫りにした。
関連論文リスト
- Accumulative SGD Influence Estimation for Data Attribution [19.004453441633984]
SGDIEは、エポックごとのサロゲートを和らげることで、アウト・ワン・アウト効果を近似し、エポック間化合物を無視する。
本稿では,ACCSGDを意識した評価手法を提案する。
論文 参考訳(メタデータ) (2025-10-30T06:45:22Z) - CLEANet: Robust and Efficient Anomaly Detection in Contaminated Multivariate Time Series [17.992163690121565]
CLEANetは汚染時系列における堅牢で効率的な異常検出フレームワークである。
CleanetがCRTF(Contamination-Resilient Training Framework)を導入
cleanetは10の最先端ベースラインと比較して、より高いF1と81.28%低いランタイムを緩和する。
論文 参考訳(メタデータ) (2025-10-26T10:34:19Z) - Scalable, Explainable and Provably Robust Anomaly Detection with One-Step Flow Matching [14.503330877000758]
Time-Conditioned Contraction Matching is a novel method for semi-supervised anomaly detection in tabular data。
これは、確率分布間の速度場を学習する最近の生成モデリングフレームワークであるフローマッチングにインスパイアされている。
ADBenchベンチマークの大規模な実験により、TCCMは検出精度と推論コストのバランスが良好であることが示されている。
論文 参考訳(メタデータ) (2025-10-21T06:26:38Z) - DeLeaker: Dynamic Inference-Time Reweighting For Semantic Leakage Mitigation in Text-to-Image Models [55.30555646945055]
テキスト・ツー・イメージ(T2I)モデルはセマンティック・リークに対して脆弱である。
DeLeakerは、モデルのアテンションマップに直接介入することで、漏洩を緩和する軽量なアプローチである。
SLIMはセマンティックリークに特化した最初のデータセットである。
論文 参考訳(メタデータ) (2025-10-16T17:39:21Z) - Leave No TRACE: Black-box Detection of Copyrighted Dataset Usage in Large Language Models via Watermarking [51.74368870268278]
我々は,大規模な言語モデルにおける著作権付きデータセット使用量を完全にブラックボックスで検出するフレームワークであるTRACEを提案する。
textttTRACEは、プライベートキーでガイドされた歪みのない透かしでデータセットを書き換える。
さまざまなデータセットとモデルファミリにわたって、TRACEは一貫して重要な検出を実現している。
論文 参考訳(メタデータ) (2025-10-03T12:53:02Z) - Revisiting Multivariate Time Series Forecasting with Missing Values [65.30332997607141]
現実の時系列では欠落値が一般的である。
現在のアプローチでは、計算モジュールを使用して、不足した値を補う、計算済みの予測フレームワークが開発されている。
このフレームワークは、致命的な問題を見落としている: 欠落した値に対して基礎的な真理は存在せず、予測精度を劣化させる可能性のあるエラーの影響を受けやすいようにしている。
本稿では,Information Bottleneck原則に基づく新しいフレームワークであるConsistency-Regularized Information Bottleneck(CRIB)を紹介する。
論文 参考訳(メタデータ) (2025-09-27T20:57:48Z) - Mlinear: Rethink the Linear Model for Time-series Forecasting [9.841293660201261]
Mlinearは、主に線形層に基づく単純だが効果的な方法である。
複数のデータセット上で広く使われている平均二乗誤差(MSE)を大幅に上回る新しい損失関数を導入する。
提案手法は,PatchTSTを336列長入力で21:3,512列長入力で29:10で有意に上回った。
論文 参考訳(メタデータ) (2023-05-08T15:54:18Z) - Mutual Wasserstein Discrepancy Minimization for Sequential
Recommendation [82.0801585843835]
逐次リコメンデーションのためのMutual WasserStein差分最小化MSteinに基づく新しい自己教師型学習フレームワークを提案する。
また,ワッサーシュタイン離散度測定に基づく新しい学習損失を提案する。
論文 参考訳(メタデータ) (2023-01-28T13:38:48Z) - Efficient Two-Stream Network for Violence Detection Using Separable
Convolutional LSTM [0.0]
Separable Convolutional LSTM(SepConvLSTM)と予め訓練されたMobileNetを活用した効率的な2ストリームディープラーニングアーキテクチャを提案する。
SepConvLSTMは、ConvLSTMの各ゲートの畳み込み操作を深さ方向に分離可能な畳み込みに置き換えて構築されます。
我々のモデルは、大きくて挑戦的なrwf-2000データセットの精度を2%以上上回っている。
論文 参考訳(メタデータ) (2021-02-21T12:01:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。