論文の概要: SigMA: Path Signatures and Multi-head Attention for Learning Parameters in fBm-driven SDEs
- arxiv url: http://arxiv.org/abs/2512.15088v1
- Date: Wed, 17 Dec 2025 05:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.862277
- Title: SigMA: Path Signatures and Multi-head Attention for Learning Parameters in fBm-driven SDEs
- Title(参考訳): SigMA:fBm駆動SDEにおける学習パラメータに対するパスシグナチャとマルチヘッドアテンション
- Authors: Xianglin Wu, Chiheb Ben Hammouda, Cornelis W. Oosterlee,
- Abstract要約: SigMAはfBm駆動微分方程式の合成された経路からモデルパラメータを学習する。
CNN、LSTM、バニラトランスフォーマー、Deep Signatureのベースラインを精度、堅牢性、モデルコンパクト性で一貫して上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic differential equations (SDEs) driven by fractional Brownian motion (fBm) are increasingly used to model systems with rough dynamics and long-range dependence, such as those arising in quantitative finance and reliability engineering. However, these processes are non-Markovian and lack a semimartingale structure, rendering many classical parameter estimation techniques inapplicable or computationally intractable beyond very specific cases. This work investigates two central questions: (i) whether integrating path signatures into deep learning architectures can improve the trade-off between estimation accuracy and model complexity, and (ii) what constitutes an effective architecture for leveraging signatures as feature maps. We introduce SigMA (Signature Multi-head Attention), a neural architecture that integrates path signatures with multi-head self-attention, supported by a convolutional preprocessing layer and a multilayer perceptron for effective feature encoding. SigMA learns model parameters from synthetically generated paths of fBm-driven SDEs, including fractional Brownian motion, fractional Ornstein-Uhlenbeck, and rough Heston models, with a particular focus on estimating the Hurst parameter and on joint multi-parameter inference, and it generalizes robustly to unseen trajectories. Extensive experiments on synthetic data and two real-world datasets (i.e., equity-index realized volatility and Li-ion battery degradation) show that SigMA consistently outperforms CNN, LSTM, vanilla Transformer, and Deep Signature baselines in accuracy, robustness, and model compactness. These results demonstrate that combining signature transforms with attention-based architectures provides an effective and scalable framework for parameter inference in stochastic systems with rough or persistent temporal structure.
- Abstract(参考訳): 分数的ブラウン運動(fBm)によって駆動される確率微分方程式(SDE)は、定量的ファイナンスや信頼性工学で生じるような、荒い力学と長距離依存を持つ系をモデル化するために、ますます使われてきている。
しかし、これらの過程は非マルコフ的であり、半マーチンゲール構造が欠如しており、多くの古典的パラメータ推定手法が適用不可能または計算的に非常に特定の場合を超えて難解である。
本研究は,2つの中心的疑問を考察する。
一 ディープラーニングアーキテクチャに経路シグネチャを統合することにより、推定精度とモデルの複雑さのトレードオフを改善することができるか否か。
(ii) 機能マップとしてシグネチャを利用するための効果的なアーキテクチャを構成するもの。
SigMA(Signature Multi-head Attention)は,畳み込み前処理層と多層パーセプトロンによってサポートされた,効率的な特徴符号化のための,経路シグネチャとマルチヘッド自己アテンションを統合するニューラルネットワークアーキテクチャである。
SigMAは、FBm駆動SDEの合成的に生成された経路からモデルパラメータを学習し、例えば、分数的なブラウン運動、分数的なオルンシュタイン-ウレンベック、および粗いヘストンモデル、特にハーストパラメータと関節の多パラメータ推論を推定することに焦点を当て、未確認の軌道に頑健に一般化する。
合成データと2つの実世界のデータセット(すなわち、エクイティインデックスがボラティリティとLiイオン電池の劣化を実現した)の大規模な実験は、SigMAがCNN、LSTM、バニラトランスフォーマー、Deep Signatureベースラインを精度、堅牢性、モデルコンパクト性で一貫して上回っていることを示している。
これらの結果から,シグネチャ変換とアテンションに基づくアーキテクチャを組み合わせることで,確率的システムにおいて,粗あるいは永続的な時間構造を持つパラメータ推論のための効果的でスケーラブルなフレームワークが提供されることが示された。
関連論文リスト
- Adapformer: Adaptive Channel Management for Multivariate Time Series Forecasting [49.40321003932633]
Adapformerは、効果的なチャネル管理を通じてCIとCD方法論のメリットをマージする、トランスフォーマーベースの高度なフレームワークである。
Adapformerは既存のモデルよりも優れた性能を実現し、予測精度と計算効率の両方を向上させる。
論文 参考訳(メタデータ) (2025-11-18T16:24:05Z) - Merging Memory and Space: A State Space Neural Operator [8.378604588491394]
State Space Neural Operator (SS-NO) は時間依存偏微分方程式の解演算子を学習するためのコンパクトなアーキテクチャである。
SS-NOは多種多様なPDEベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-07-31T11:09:15Z) - Scalable Machine Learning Algorithms using Path Signatures [4.441866681085518]
この論文は、スケーラブルな機械学習パイプラインにおいて、パスシグネチャの表現力を利用する方法を研究する。
理論的ロバスト性と計算効率を組み合わせ、粗い経路理論と確率論的モデリング、ディープラーニング、カーネルメソッドをブリッジする一連のモデルを導入している。
論文 参考訳(メタデータ) (2025-06-21T08:36:34Z) - Instruction-Guided Autoregressive Neural Network Parameter Generation [49.800239140036496]
本稿では,多種多様なタスクやアーキテクチャにまたがるパラメータ合成を統一する自動回帰フレームワークIGPGを提案する。
ニューラルネットワーク重みのトークンを自動回帰的に生成することにより、IGPGは層間コヒーレンスを確保し、モデルとデータセット間の効率的な適応を可能にする。
複数のデータセットの実験により、IGPGは様々な事前訓練されたモデルを単一の柔軟な生成フレームワークに統合することを示した。
論文 参考訳(メタデータ) (2025-04-02T05:50:19Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Learning minimal representations of stochastic processes with
variational autoencoders [52.99137594502433]
プロセスを記述するのに必要なパラメータの最小セットを決定するために、教師なしの機械学習アプローチを導入する。
我々の手法はプロセスを記述する未知のパラメータの自律的な発見を可能にする。
論文 参考訳(メタデータ) (2023-07-21T14:25:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。