論文の概要: Physics-Informed Singular-Value Learning for Cross-Covariances Forecasting in Financial Markets
- arxiv url: http://arxiv.org/abs/2601.07687v2
- Date: Wed, 21 Jan 2026 10:01:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 14:56:59.964528
- Title: Physics-Informed Singular-Value Learning for Cross-Covariances Forecasting in Financial Markets
- Title(参考訳): 物理インフォームドな特異値学習による金融市場における相互共分散予測
- Authors: Efstratios Manolakis, Christian Bongiorno, Rosario Nunzio Mantegna,
- Abstract要約: 我々は,経験的特異値から対応する清浄値への非線形マッピングを学習するランダム行列に着想を得たニューラルネットワークを設計する。
構築により、ネットワークは特別なケースとして解析解を復元できるが、非定常力学やモード駆動歪みに適応できるほど柔軟である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new wave of work on covariance cleaning and nonlinear shrinkage has delivered asymptotically optimal analytical solutions for large covariance matrices. The same framework has been generalized to empirical cross-covariance matrices, whose singular value decomposition identifies canonical comovement modes between two asset sets, with singular values quantifying the strength of each mode and providing natural targets for shrinkage. Existing analytical cross-covariance cleaners are derived under strong stationarity and large-sample assumptions, and they typically rely on mesoscopic regularity conditions such as bounded spectra; macroscopic common modes (e.g., a global market factor) violate these conditions. When applied to real equity returns, where dependence structures drift over time and global modes are prominent, we find that these theoretically optimal formulas do not translate into robust out-of-sample performance. We address this gap by designing a random-matrix-inspired neural architecture that operates in the empirical singular-vector basis and learns a nonlinear mapping from empirical singular values to their corresponding cleaned values. By construction, the network can recover the analytical solution as a special case, yet it remains flexible enough to adapt to non-stationary dynamics and mode-driven distortions. Trained on a long history of equity returns, the proposed method achieves a more favorable bias-variance trade-off than purely analytical cleaners and delivers systematically lower out-of-sample cross-covariance prediction errors. Our results demonstrate that combining random-matrix theory with machine learning makes asymptotic theories practically effective in realistic time-varying markets.
- Abstract(参考訳): 共分散クリーニングと非線形収縮に関する新しい研究の波は、大きな共分散行列に対して漸近的に最適な解析解をもたらした。
同じ枠組みは経験的クロス共分散行列に一般化され、その特異値分解は2つの集合間の標準共役モードを識別し、特異値は各モードの強さを定量化し、縮小のための自然な目標を与える。
既存の分析的クロス共分散クリーナーは、強い定常性と大きなサンプル仮定の下で導出され、通常は境界スペクトルのようなメソスコピックな規則性条件に依存している。
時間とともに依存構造がドリフトし、グローバルモードが顕著な現実のエクイティリターンに適用すると、これらの理論上最適な公式が堅牢なアウト・オブ・サンプルのパフォーマンスに変換されないことが分かる。
経験的特異ベクトルベースで動作し、経験的特異値から対応するクリーン化値への非線形マッピングを学習するランダム行列インスピレーションニューラルアーキテクチャを設計することにより、このギャップに対処する。
構築により、ネットワークは特別なケースとして解析解を復元できるが、非定常力学やモード駆動歪みに適応できるほど柔軟である。
提案手法は, 長期にわたる株式リターンに基づいて, 純分析式クリーナーよりも優れたバイアス分散トレードオフを実現し, 系統的にサンプル外共分散予測誤差を低くする。
この結果から,ランダム行列理論と機械学習を組み合わせることで,現実的な時間変化市場において漸近理論が実際に有効であることを示す。
関連論文リスト
- Equivariant Evidential Deep Learning for Interatomic Potentials [55.6997213490859]
不確かさの定量化は、分子動力学シミュレーションにおける機械学習の原子間ポテンシャルの信頼性を評価するために重要である。
既存のMLIPのUQアプローチは、高い計算コストや準最適性能によって制限されることが多い。
我々は,原子間ポテンシャルの定量的深層学習(texte2$IP)を提案する。
論文 参考訳(メタデータ) (2026-02-11T02:00:25Z) - The Procrustean Bed of Time Series: The Optimization Bias of Point-wise Loss [53.542743390809356]
本稿では,最適化バイアス(EOB)の期待に関する第一原理解析を提案する。
時間列が決定論的で構造化されるほど、ポイントワイドの損失関数によるバイアスがより厳しくなる。
本稿では,DFTとDWTの両原理を同時に実現する具体的ソリューションを提案する。
論文 参考訳(メタデータ) (2025-12-21T06:08:22Z) - Nonlinear Performative Prediction [6.621349481928294]
パフォーマンス予測(Performative prediction)は、機械学習における新たなパラダイムであり、モデルの予測が予測するデータの分布の変化を誘発するシナリオに対処する。
本稿では,本質的な理論的特性を保ちつつ,非線形ケースに対する性能予測を一般化する新しい設計を提案する。
予測モデルの性能安定性を保証するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-09-01T05:17:52Z) - Asymptotics of Non-Convex Generalized Linear Models in High-Dimensions: A proof of the replica formula [17.036996839737828]
非次元ガウス正規化モデルの最適性を証明するために,アルゴリズムをどのように利用できるかを示す。
また, 負の正則化モデルの最適性を証明するために, テューキー損失を用いる方法を示す。
論文 参考訳(メタデータ) (2025-02-27T11:29:43Z) - Asymptotics of Linear Regression with Linearly Dependent Data [28.005935031887038]
非ガウス共変量の設定における線形回帰の計算について検討する。
本稿では,依存性が推定誤差と正規化パラメータの選択にどのように影響するかを示す。
論文 参考訳(メタデータ) (2024-12-04T20:31:47Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Fine-Grained Dynamic Framework for Bias-Variance Joint Optimization on Data Missing Not at Random [2.8165314121189247]
レコメンデーションシステムやディスプレイ広告など、ほとんどの実践的なアプリケーションでは、収集されたデータには欠落する値が含まれることが多い。
我々は,バイアスと分散を協調的に最適化する,体系的なきめ細かな動的学習フレームワークを開発した。
論文 参考訳(メタデータ) (2024-05-24T10:07:09Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Understanding Pathologies of Deep Heteroskedastic Regression [25.509884677111344]
ヘテロスケダスティックモデルは各データポイントの平均ノイズと残留ノイズの両方を予測する。
極端に言えば、これらのモデルはすべてのトレーニングデータを完璧に適合させ、残音を完全に排除する。
他方では、一定で非形式的な平均を予測しながら残音を過度に補正する。
中間地盤の欠如を観察し, モデル正則化強度に依存する相転移を示唆した。
論文 参考訳(メタデータ) (2023-06-29T06:31:27Z) - A Theoretical Analysis on Independence-driven Importance Weighting for
Covariate-shift Generalization [44.88645911638269]
安定学習文学における独立駆動の重要度アルゴリズムは経験的効果を示している。
本稿では,このようなアルゴリズムの有効性を,特徴選択プロセスとして説明することにより理論的に証明する。
理想的な条件下では、独立駆動の重み付けアルゴリズムがこの集合の変数を識別できることを証明した。
論文 参考訳(メタデータ) (2021-11-03T17:18:49Z) - Deviance Matrix Factorization [6.509665408765348]
偏差に基づくデータ損失に対する一般的な行列係数化について検討し、任意の特異値分解を2乗誤差損失を超えて拡張する。
本手法は,一般化線形モデル(GLM)から古典統計手法を応用し,入射重みによる構造零点の許容に十分柔軟な効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-10-12T01:27:55Z) - Hessian Eigenspectra of More Realistic Nonlinear Models [73.31363313577941]
私たちは、非線形モデルの広いファミリーのためのヘッセン固有スペクトルの言語的特徴付けを行います。
我々の分析は、より複雑な機械学習モデルで観察される多くの顕著な特徴の起源を特定するために一歩前進する。
論文 参考訳(メタデータ) (2021-03-02T06:59:52Z) - Understanding Double Descent Requires a Fine-Grained Bias-Variance
Decomposition [34.235007566913396]
ラベルに関連付けられた用語への分散の解釈可能で対称的な分解について述べる。
バイアスはネットワーク幅とともに単調に減少するが、分散項は非単調な振る舞いを示す。
我々はまた、著しく豊かな現象論も分析する。
論文 参考訳(メタデータ) (2020-11-04T21:04:02Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。