論文の概要: Physics-Informed Singular-Value Learning for Cross-Covariances Forecasting in Financial Markets
- arxiv url: http://arxiv.org/abs/2601.07687v1
- Date: Mon, 12 Jan 2026 16:18:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.57239
- Title: Physics-Informed Singular-Value Learning for Cross-Covariances Forecasting in Financial Markets
- Title(参考訳): 物理インフォームドな特異値学習による金融市場における相互共分散予測
- Authors: Efstratios Manolakis, Christian Bongiorno, Rosario Nunzio Mantegna,
- Abstract要約: 我々は,経験的特異値から対応する清浄値への非線形マッピングを学習するランダム行列型ニューラルネットワークを開発した。
構築により、ネットワークは特別なケースとして解析解を復元できるが、非定常力学やモード駆動歪みに適応できるほど柔軟である。
この結果から,ランダム行列理論と機械学習を組み合わせることで,現実的な時間変化市場において理論が実質的に有効であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new wave of work on covariance cleaning and nonlinear shrinkage has delivered asymptotically optimal analytical solutions for large covariance matrices. Building on this progress, these ideas have been generalized to empirical cross-covariance matrices, whose singular-value shrinkage characterizes comovements between one set of assets and another. Existing analytical cross-covariance cleaners are derived under strong stationarity and large-sample assumptions, and they typically rely on mesoscopic regularity conditions such as bounded spectra; macroscopic common modes (e.g., a global market factor) violate these conditions. When applied to real equity returns, where dependence structures drift over time and global modes are prominent, we find that these theoretically optimal formulas do not translate into robust out-of-sample performance. We address this gap by designing a random-matrix-inspired neural architecture that operates in the empirical singular-vector basis and learns a nonlinear mapping from empirical singular values to their corresponding cleaned values. By construction, the network can recover the analytical solution as a special case, yet it remains flexible enough to adapt to non-stationary dynamics and mode-driven distortions. Trained on a long history of equity returns, the proposed method achieves a more favorable bias-variance trade-off than purely analytical cleaners and delivers systematically lower out-of-sample cross-covariance prediction errors. Our results demonstrate that combining random-matrix theory with machine learning makes asymptotic theories practically effective in realistic time-varying markets.
- Abstract(参考訳): 共分散クリーニングと非線形収縮に関する新しい研究の波は、大きな共分散行列に対して漸近的に最適な解析解をもたらした。
この進歩に基づいて、これらのアイデアは経験的相互共分散行列に一般化され、その特異値の縮退は、ある集合と別の集合の間の共役を特徴づける。
既存の分析的クロス共分散クリーナーは、強い定常性と大きなサンプル仮定の下で導出され、通常は境界スペクトルのようなメソスコピックな規則性条件に依存している。
時間とともに依存構造がドリフトし、グローバルモードが顕著な現実のエクイティリターンに適用すると、これらの理論上最適な公式が堅牢なアウト・オブ・サンプルのパフォーマンスに変換されないことが分かる。
経験的特異ベクトルベースで動作し、経験的特異値から対応するクリーン化値への非線形マッピングを学習するランダム行列インスピレーションニューラルアーキテクチャを設計することにより、このギャップに対処する。
構築により、ネットワークは特別なケースとして解析解を復元できるが、非定常力学やモード駆動歪みに適応できるほど柔軟である。
提案手法は, 長期にわたる株式リターンに基づいて, 純分析式クリーナーよりも優れたバイアス分散トレードオフを実現し, 系統的にサンプル外共分散予測誤差を低くする。
この結果から,ランダム行列理論と機械学習を組み合わせることで,現実的な時間変化市場において漸近理論が実際に有効であることを示す。
関連論文リスト
- Nonlinear Performative Prediction [6.621349481928294]
パフォーマンス予測(Performative prediction)は、機械学習における新たなパラダイムであり、モデルの予測が予測するデータの分布の変化を誘発するシナリオに対処する。
本稿では,本質的な理論的特性を保ちつつ,非線形ケースに対する性能予測を一般化する新しい設計を提案する。
予測モデルの性能安定性を保証するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-09-01T05:17:52Z) - Asymptotics of Non-Convex Generalized Linear Models in High-Dimensions: A proof of the replica formula [17.036996839737828]
非次元ガウス正規化モデルの最適性を証明するために,アルゴリズムをどのように利用できるかを示す。
また, 負の正則化モデルの最適性を証明するために, テューキー損失を用いる方法を示す。
論文 参考訳(メタデータ) (2025-02-27T11:29:43Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Fine-Grained Dynamic Framework for Bias-Variance Joint Optimization on Data Missing Not at Random [2.8165314121189247]
レコメンデーションシステムやディスプレイ広告など、ほとんどの実践的なアプリケーションでは、収集されたデータには欠落する値が含まれることが多い。
我々は,バイアスと分散を協調的に最適化する,体系的なきめ細かな動的学習フレームワークを開発した。
論文 参考訳(メタデータ) (2024-05-24T10:07:09Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Understanding Pathologies of Deep Heteroskedastic Regression [25.509884677111344]
ヘテロスケダスティックモデルは各データポイントの平均ノイズと残留ノイズの両方を予測する。
極端に言えば、これらのモデルはすべてのトレーニングデータを完璧に適合させ、残音を完全に排除する。
他方では、一定で非形式的な平均を予測しながら残音を過度に補正する。
中間地盤の欠如を観察し, モデル正則化強度に依存する相転移を示唆した。
論文 参考訳(メタデータ) (2023-06-29T06:31:27Z) - A Theoretical Analysis on Independence-driven Importance Weighting for
Covariate-shift Generalization [44.88645911638269]
安定学習文学における独立駆動の重要度アルゴリズムは経験的効果を示している。
本稿では,このようなアルゴリズムの有効性を,特徴選択プロセスとして説明することにより理論的に証明する。
理想的な条件下では、独立駆動の重み付けアルゴリズムがこの集合の変数を識別できることを証明した。
論文 参考訳(メタデータ) (2021-11-03T17:18:49Z) - Hessian Eigenspectra of More Realistic Nonlinear Models [73.31363313577941]
私たちは、非線形モデルの広いファミリーのためのヘッセン固有スペクトルの言語的特徴付けを行います。
我々の分析は、より複雑な機械学習モデルで観察される多くの顕著な特徴の起源を特定するために一歩前進する。
論文 参考訳(メタデータ) (2021-03-02T06:59:52Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。