論文の概要: The Procrustean Bed of Time Series: The Optimization Bias of Point-wise Loss
- arxiv url: http://arxiv.org/abs/2512.18610v1
- Date: Sun, 21 Dec 2025 06:08:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.419259
- Title: The Procrustean Bed of Time Series: The Optimization Bias of Point-wise Loss
- Title(参考訳): The Procrustean Bed of Time Series: The Optimization Bias of Point-wise Loss
- Authors: Rongyao Cai, Yuxi Wan, Kexin Zhang, Ming Jin, Hao Wang, Zhiqiang Ge, Daoyi Dong, Yong Liu, Qingsong Wen,
- Abstract要約: 本稿では,最適化バイアス(EOB)の期待に関する第一原理解析を提案する。
時間列が決定論的で構造化されるほど、ポイントワイドの損失関数によるバイアスがより厳しくなる。
本稿では,DFTとDWTの両原理を同時に実現する具体的ソリューションを提案する。
- 参考スコア(独自算出の注目度): 53.542743390809356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimizing time series models via point-wise loss functions (e.g., MSE) relying on a flawed point-wise independent and identically distributed (i.i.d.) assumption that disregards the causal temporal structure, an issue with growing awareness yet lacking formal theoretical grounding. Focusing on the core independence issue under covariance stationarity, this paper aims to provide a first-principles analysis of the Expectation of Optimization Bias (EOB), formalizing it information-theoretically as the discrepancy between the true joint distribution and its flawed i.i.d. counterpart. Our analysis reveals a fundamental paradigm paradox: the more deterministic and structured the time series, the more severe the bias by point-wise loss function. We derive the first closed-form quantification for the non-deterministic EOB across linear and non-linear systems, and prove EOB is an intrinsic data property, governed exclusively by sequence length and our proposed Structural Signal-to-Noise Ratio (SSNR). This theoretical diagnosis motivates our principled debiasing program that eliminates the bias through sequence length reduction and structural orthogonalization. We present a concrete solution that simultaneously achieves both principles via DFT or DWT. Furthermore, a novel harmonized $\ell_p$ norm framework is proposed to rectify gradient pathologies of high-variance series. Extensive experiments validate EOB Theory's generality and the superior performance of debiasing program.
- Abstract(参考訳): ポイントワイズ損失関数(例えば、MSE)による時系列モデルの最適化は、因果時間構造を無視する欠陥のある点ワイズ独立かつ同一に分散された仮定(すなわち、形式的理論的根拠を欠いた認識が増大する問題)に依存する。
本稿では、共分散定常性の下でのコア独立問題に着目し、最適化バイアスの期待(EOB)の第一原理分析を行い、真の関節分布と欠陥のあるi.d.との相違点として情報理論的に定式化することを目的とする。
時間列が決定論的で構造化されるほど、ポイントワイドの損失関数によるバイアスがより厳しくなる。
線形系および非線形系にまたがる非決定論的 EOB に対する最初の閉形式量子化法を導出し、EOB が本質的なデータ特性であり、配列長と提案した構造信号-雑音比(SSNR)にのみ支配されていることを証明した。
この理論的診断は、配列長の削減と構造的直交化によるバイアスを除去する原則的脱バイアスプログラムを動機付けている。
本稿では,DFTとDWTの両原理を同時に実現する具体的ソリューションを提案する。
さらに、高分散級数の勾配病理を正すために、新しい調和化$\ell_p$ノルムフレームワークを提案する。
広範囲な実験により、EOB理論の一般化とデバイアスプログラムの優れた性能が検証された。
関連論文リスト
- Sharp Structure-Agnostic Lower Bounds for General Functional Estimation [22.228743542695835]
本稿では,構造に依存しない推定器で得られる最適誤差率について,系統的に検討する。
まず、因果推論における中心的パラメータである平均治療効果(ATE)を推定するために、二重頑健な学習が最適構造に依存しない誤り率を得ることを示す。
次に、未知のニュアンス関数に依存する関数の一般クラスに解析を拡張し、デバイアス/ダブル機械学習の構造-非依存的最適性を確立する。
論文 参考訳(メタデータ) (2025-12-19T08:34:05Z) - Nonconvex Penalized LAD Estimation in Partial Linear Models with DNNs: Asymptotic Analysis and Proximal Algorithms [3.8450418136547224]
本稿では,LAST Absolute Deviation (LAD) による線形部分モデルについて検討する。
我々は、ディープニューラルネットワーク(NN)とペナライズされたLADモデルを用いて、非下位パラメータを定式化する。
論文 参考訳(メタデータ) (2025-11-26T07:01:35Z) - ERIS: An Energy-Guided Feature Disentanglement Framework for Out-of-Distribution Time Series Classification [51.07970070817353]
理想的な時系列分類(TSC)は不変表現をキャプチャできるべきである。
現在の手法は、真に普遍的な特徴を分離するために必要な意味的な方向性を欠いている。
本稿では,シフト・ロバストネス・フレームワークのためのエンドツーエンドのエネルギー規則化情報を提案する。
論文 参考訳(メタデータ) (2025-08-19T12:13:41Z) - Optimal Condition for Initialization Variance in Deep Neural Networks: An SGD Dynamics Perspective [0.0]
勾配降下(SGD)は機械学習(ML)における最も基本的な最適化アルゴリズムの1つである。
この方程式から導かれる準定常分布とクルバック・リーブラー(KL)の発散による初期分布の関係について検討する。
MNISTおよびFashion-MNISTデータセット上で、古典的なSGDを用いて完全に接続されたニューラルネットワークをトレーニングすることにより、理論的結果を実験的に確認する。
論文 参考訳(メタデータ) (2025-08-18T11:18:12Z) - Neural variational Data Assimilation with Uncertainty Quantification using SPDE priors [28.804041716140194]
ディープラーニングコミュニティの最近の進歩は、ニューラルネットワークと変分データ同化フレームワークを通じて、この問題に対処することができる。
本研究では、部分微分方程式(SPDE)とガウス過程(GP)の理論を用いて状態の空間的および時間的共分散を推定する。
論文 参考訳(メタデータ) (2024-02-02T19:18:12Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - BCD Nets: Scalable Variational Approaches for Bayesian Causal Discovery [97.79015388276483]
構造方程式モデル(SEM)は、有向非巡回グラフ(DAG)を介して表される因果関係を推論する効果的な枠組みである。
近年の進歩により、観測データからDAGの有効最大点推定が可能となった。
線形ガウス SEM を特徴付ける DAG 上の分布を推定するための変分フレームワークである BCD Nets を提案する。
論文 参考訳(メタデータ) (2021-12-06T03:35:21Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - To Regularize or Not To Regularize? The Bias Variance Trade-off in
Regularized AEs [10.611727286504994]
AEモデルの生成決定論的品質に及ぼす潜伏剤の影響について検討する。
我々は、FlexAEと呼ばれるモデルが、AEベースの生成モデルのための新しい最先端技術であることを示します。
論文 参考訳(メタデータ) (2020-06-10T14:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。