論文の概要: Functional Continuous Decomposition
- arxiv url: http://arxiv.org/abs/2602.20857v1
- Date: Tue, 24 Feb 2026 12:58:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.752787
- Title: Functional Continuous Decomposition
- Title(参考訳): 機能的連続分解
- Authors: Teymur Aghayev,
- Abstract要約: 本稿では,様々な数学関数に対してパラメトリックかつ連続的な最適化を行うJAXアクセラレーションフレームワークであるFCDを提案する。
FCDは、信号時間パターン、最適化されたパラメータ、微分、分解の積分の分析に一般的に用いられる。
最適化関数値やパラメータ,デリバティブなどのFCD機能を拡張した畳み込みニューラルネットワークが,標準CNNよりも16.8%,精度2.5%向上したことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The analysis of non-stationary time-series data requires insight into its local and global patterns with physical interpretability. However, traditional smoothing algorithms, such as B-splines, Savitzky-Golay filtering, and Empirical Mode Decomposition (EMD), lack the ability to perform parametric optimization with guaranteed continuity. In this paper, we propose Functional Continuous Decomposition (FCD), a JAX-accelerated framework that performs parametric, continuous optimization on a wide range of mathematical functions. By using Levenberg-Marquardt optimization to achieve up to $C^1$ continuous fitting, FCD transforms raw time-series data into $M$ modes that capture different temporal patterns from short-term to long-term trends. Applications of FCD include physics, medicine, financial analysis, and machine learning, where it is commonly used for the analysis of signal temporal patterns, optimized parameters, derivatives, and integrals of decomposition. Furthermore, FCD can be applied for physical analysis and feature extraction with an average SRMSE of 0.735 per segment and a speed of 0.47s on full decomposition of 1,000 points. Finally, we demonstrate that a Convolutional Neural Network (CNN) enhanced with FCD features, such as optimized function values, parameters, and derivatives, achieved 16.8% faster convergence and 2.5% higher accuracy over a standard CNN.
- Abstract(参考訳): 非定常時系列データの解析には、物理的解釈可能性を持つ局所的および大域的パターンの洞察が必要である。
しかしながら、B-splines、Savitzky-Golay filtering、Empirical Mode Decomposition (EMD)といった従来のスムースなアルゴリズムでは、連続性を保証するパラメトリック最適化ができない。
本稿では,様々な数学的関数に対してパラメトリックかつ連続的な最適化を行うJAXアクセラレーションフレームワークであるFCDを提案する。
Levenberg-Marquardt最適化を用いて、最大$C^1$連続的なフィッティングを実現し、FCDは生の時系列データをM$モードに変換し、短期から長期の傾向から異なる時間パターンをキャプチャする。
FCDの応用例としては、物理、医学、財務分析、機械学習があり、信号時間パターンの分析、最適化されたパラメータ、微分、分解の積分などに使われる。
さらに、FCDは1セグメントあたり平均SRMSE0.735、1000点の完全分解速度0.47sで物理解析と特徴抽出に応用できる。
最後に,関数値やパラメータ,デリバティブなどのFCD機能を拡張した畳み込みニューラルネットワーク(CNN)が,標準CNNよりも16.8%早く収束し,精度が2.5%向上したことを示す。
関連論文リスト
- Is Flow Matching Just Trajectory Replay for Sequential Data? [46.770624059457724]
時系列生成には、フローマッチング(FM)がますます使われている。
一般的な力学構造を学ぶのか、それとも単に効果的な「軌道再生」を行うのかはよく分かっていない。
インプリッドサンプリングは、非パラメトリックなメモリ拡張型連続時間力学系を構成するODEであることを示す。
論文 参考訳(メタデータ) (2026-02-09T06:48:45Z) - Breaking the Memory Wall: Exact Analytical Differentiation via Tiled Operator-Space Evolution [3.551701030393209]
位相勾配流(PGF)は、状態空間多様体で直接操作することで正確な解析微分を計算するフレームワークである。
提案手法は,最大VRAMの94%削減,スループットの23倍のO(1)メモリの複雑性を実現する。
我々の研究は1つのGPU上で染色体スケールの感度解析を可能にし、理論的な無限コンテキストモデルと実用的なハードウェアの限界のギャップを埋める。
論文 参考訳(メタデータ) (2025-12-28T20:27:58Z) - CFO: Learning Continuous-Time PDE Dynamics via Flow-Matched Neural Operators [9.273461312644345]
連続フロー演算子(Continuous Flow Operator, CFO)は、標準的な連続アプローチであるニューラルODEの計算負担を伴わずに、連続時間PDEダイナミクスを学習する。
CFOは時相スプラインを軌跡データに適合させ、結び目における時間微分の有限差分推定を用いて、真のPDE力学に近似した速度の確率経路を構築する。
ニューラル作用素はフローマッチングによってトレーニングされ、これらの解析速度場を予測する。
論文 参考訳(メタデータ) (2025-12-04T22:33:29Z) - Multivariate Long-term Time Series Forecasting with Fourier Neural Filter [42.60778405812048]
我々はFNFをバックボーンとして、DBDをアーキテクチャとして導入し、空間時間モデルのための優れた学習能力と最適な学習経路を提供する。
FNFは、局所時間領域とグローバル周波数領域の情報処理を単一のバックボーン内で統合し、空間的モデリングに自然に拡張することを示す。
論文 参考訳(メタデータ) (2025-06-10T18:40:20Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion [56.38386580040991]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - A Fast Parallel Tensor Decomposition with Optimal Stochastic Gradient
Descent: an Application in Structural Damage Identification [1.536989504296526]
本稿では, CANDECOMP/PARAFAC (CP) 分解を mathbbR I_1 times dots times I_N $ で並列化する新しいアルゴリズム FP-CPD を提案する。
論文 参考訳(メタデータ) (2021-11-04T05:17:07Z) - Improving the Transient Times for Distributed Stochastic Gradient
Methods [5.215491794707911]
拡散適応段階法(EDAS)と呼ばれる分散勾配アルゴリズムについて検討する。
EDASが集中勾配降下(SGD)と同じネットワーク独立収束率を達成することを示す。
我々の知る限り、EDASは$n$のコスト関数の平均が強い凸である場合に最も短い時間を達成する。
論文 参考訳(メタデータ) (2021-05-11T08:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。