論文の概要: An Information Bottleneck Asset Pricing Model
- arxiv url: http://arxiv.org/abs/2507.23218v1
- Date: Thu, 31 Jul 2025 03:15:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.019215
- Title: An Information Bottleneck Asset Pricing Model
- Title(参考訳): インフォメーション・ボトルネック・アセット価格モデル
- Authors: Che Sun,
- Abstract要約: 本稿では,低信号対雑音比でデータを圧縮する情報ボトルネック資産価格モデルを提案する。
我々のモデルは、情報圧縮プロセス中にノイズ情報がフィルタリングされることを保証する。
- 参考スコア(独自算出の注目度): 5.877768073501732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have garnered significant attention in financial asset pricing, due to their strong capacity for modeling complex nonlinear relationships within financial data. However, sophisticated models are prone to over-fitting to the noise information in financial data, resulting in inferior performance. To address this issue, we propose an information bottleneck asset pricing model that compresses data with low signal-to-noise ratios to eliminate redundant information and retain the critical information for asset pricing. Our model imposes constraints of mutual information during the nonlinear mapping process. Specifically, we progressively reduce the mutual information between the input data and the compressed representation while increasing the mutual information between the compressed representation and the output prediction. The design ensures that irrelevant information, which is essentially the noise in the data, is forgotten during the modeling of financial nonlinear relationships without affecting the final asset pricing. By leveraging the constraints of the Information bottleneck, our model not only harnesses the nonlinear modeling capabilities of deep networks to capture the intricate relationships within financial data but also ensures that noise information is filtered out during the information compression process.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、金融データ内の複雑な非線形関係をモデル化する強力な能力のため、金融資産価格に大きな注目を集めている。
しかし、洗練されたモデルは、財務データのノイズ情報に過度に適合する傾向にあり、結果として性能は低下する。
この問題に対処するために、余剰情報を排除し、資産価格の重要な情報を保持するために、低信号対雑音比でデータを圧縮する情報ボトルネック資産価格モデルを提案する。
本モデルは非線形マッピング過程において相互情報の制約を課す。
具体的には、圧縮された表現と出力予測との間の相互情報を増大させながら、入力データと圧縮された表現との間の相互情報を段階的に削減する。
この設計により、最終的な資産価格に影響を与えることなく、財務的非線形関係のモデル化において、本質的にデータ内のノイズである無関係情報が無視されることが保証される。
情報ボトルネックの制約を活用することで、ディープネットワークの非線形モデリング機能を活用して、財務データ内の複雑な関係を捉えるだけでなく、情報圧縮プロセス中にノイズ情報がフィルタリングされることを保証する。
関連論文リスト
- DLF: Enhancing Explicit-Implicit Interaction via Dynamic Low-Order-Aware Fusion for CTR Prediction [71.41414150295702]
本稿では,クリックスルー率(CTR)予測をモデル化するための新しいフレームワークである動的低次認識融合(DLF)を提案する。
RLIは残差接続からの冗長性を緩和しながら低次信号を保持し、NAFは各層での明示的および暗黙的な表現を動的に統合し、情報共有を強化する。
公開データセットの実験では、DLFがCTR予測における最先端のパフォーマンスを達成し、既存のモデルの重要な制限に対処していることが示されている。
論文 参考訳(メタデータ) (2025-05-25T15:05:00Z) - Neuro-Inspired Hierarchical Multimodal Learning [16.8379583872582]
我々は,情報ボトルネックの概念を利用する情報理論階層知覚(ITHP)モデルを開発した。
本モデルでは,主モーダリティを入力として指定し,残りのモーダリティは情報経路の検出器として機能する。
我々のモデルは、最先端のベンチマークよりも優れたマルチモーダル学習シナリオにおいて、決定的な情報を一貫して蒸留する。
論文 参考訳(メタデータ) (2023-09-27T05:50:05Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Graph-Regularized Tensor Regression: A Domain-Aware Framework for
Interpretable Multi-Way Financial Modelling [23.030263841031633]
そこで我々は,グラフラプラシアン行列の形で,相互関係に関する知識をモデルに組み込む新しいグラフ正規化回帰(GRTR)フレームワークを開発した。
テンソル代数(英語版)により、提案されたフレームワークは係数と次元の両方で完全に解釈可能であることが示されている。
GRTRモデルは、マルチウェイの財務予測設定で検証され、計算コストの削減による性能向上が示されている。
論文 参考訳(メタデータ) (2022-10-26T13:39:08Z) - Correlation Information Bottleneck: Towards Adapting Pretrained
Multimodal Models for Robust Visual Question Answering [63.87200781247364]
相関情報ボトルネック (CIB) は圧縮と表現の冗長性のトレードオフを求める。
マルチモーダル入力と表現の相互情報に対して,理論上界を厳密に導出する。
論文 参考訳(メタデータ) (2022-09-14T22:04:10Z) - On Information Plane Analyses of Neural Network Classifiers -- A Review [7.804994311050265]
情報平面に可視化された圧縮は必ずしも情報理論ではないことを示す。
フィードフォワードニューラルネットワークでさえ、データ処理の不平等は、相互情報の見積のために保持する必要はない、と我々は主張する。
論文 参考訳(メタデータ) (2020-03-21T14:43:45Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z) - On the Difference Between the Information Bottleneck and the Deep
Information Bottleneck [81.89141311906552]
本稿では,Deep Variational Information Bottleneckとその導出に必要な仮定について再考する。
後者のマルコフ連鎖のみを満たすべき$I(T;Y)$に対して下界を最適化することで、この制限を回避する方法を示す。
論文 参考訳(メタデータ) (2019-12-31T18:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。