論文の概要: Fast and Accurate Power Load Data Completion via Regularization-optimized Low-Rank Factorization
- arxiv url: http://arxiv.org/abs/2505.19133v1
- Date: Sun, 25 May 2025 13:07:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.927397
- Title: Fast and Accurate Power Load Data Completion via Regularization-optimized Low-Rank Factorization
- Title(参考訳): 正規化最適化低ランク因子化による高速かつ高精度な電力負荷データ補完
- Authors: Yan Xia, Hao Feng, Hongwei Sun, Junjie Wang, Qicong Hu,
- Abstract要約: 低ランク表現学習は、電力負荷データの欠落した値を回復するための強力なツールとして登場した。
正規化時間的低ランク因子化モデルは、その効率性と解釈可能性に好適である。
正規化係数の調整に適応する正規化時間的低ランク因子化制御器を提案する。
- 参考スコア(独自算出の注目度): 10.713082490316111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-rank representation learning has emerged as a powerful tool for recovering missing values in power load data due to its ability to exploit the inherent low-dimensional structures of spatiotemporal measurements. Among various techniques, low-rank factorization models are favoured for their efficiency and interpretability. However, their performance is highly sensitive to the choice of regularization parameters, which are typically fixed or manually tuned, resulting in limited generalization capability or slow convergence in practical scenarios. In this paper, we propose a Regularization-optimized Low-Rank Factorization, which introduces a Proportional-Integral-Derivative controller to adaptively adjust the regularization coefficient. Furthermore, we provide a detailed algorithmic complexity analysis, showing that our method preserves the computational efficiency of stochastic gradient descent while improving adaptivity. Experimental results on real-world power load datasets validate the superiority of our method in both imputation accuracy and training efficiency compared to existing baselines.
- Abstract(参考訳): 低ランク表現学習は、時空間測定の固有の低次元構造を利用する能力により、電力負荷データの欠落値を回復するための強力なツールとして登場した。
様々な技術の中で、低ランクの分解モデルは、その効率と解釈可能性に好まれている。
しかし、それらの性能は、通常固定または手動で調整される正規化パラメータの選択に非常に敏感であり、結果として、実用シナリオにおける限定的な一般化能力や緩やかな収束をもたらす。
本稿では,正規化係数を適応的に調整するRegularization-Optimized Low-Rank Factorizationを提案する。
さらに,アルゴリズムの複雑性解析を行い,適応性を改善しつつ,確率勾配降下の計算効率を向上することを示した。
実世界の電力負荷データセットの実験結果から,既存のベースラインと比較して計算精度とトレーニング効率の両方において,本手法の優位性を検証した。
関連論文リスト
- A kinetic-based regularization method for data science applications [39.58317527488534]
本稿では,統計力学にインスパイアされた関数学習のための物理に基づく正規化手法を提案する。
補間器のパラメータの最適化とシステムのエネルギーの最小化の類似性から,データ分布の低次モーメントに対する制約を導入する。
これにより、データの離散表現と連続表現の相違が最小化され、それによってより好ましいエネルギーランドスケープにアクセスできるようになる。
論文 参考訳(メタデータ) (2025-03-06T08:12:01Z) - Gradient Descent Efficiency Index [0.0]
本研究では,各イテレーションの有効性を定量化するために,新しい効率指標Ekを導入する。
提案した測定基準は、誤差の相対的変化と繰り返し間の損失関数の安定性の両方を考慮に入れている。
Ekは、機械学習アプリケーションにおける最適化アルゴリズムの選択とチューニングにおいて、より詳細な決定を導く可能性がある。
論文 参考訳(メタデータ) (2024-10-25T10:22:22Z) - Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Adaptive debiased SGD in high-dimensional GLMs with streaming data [4.704144189806667]
本稿では,高次元一般化線形モデルにおけるオンライン推論に対する新しいアプローチを提案する。
提案手法は単一パスモードで動作し,全データセットアクセスや大次元要約統計ストレージを必要とする既存手法とは異なる。
我々の方法論的革新の核心は、動的目的関数に適した適応的降下アルゴリズムと、新しいオンラインデバイアス処理である。
論文 参考訳(メタデータ) (2024-05-28T15:36:48Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。