論文の概要: Stationary Processes, Wiener-Granger Causality, and Matrix Spectral Factorization
- arxiv url: http://arxiv.org/abs/2412.18901v1
- Date: Wed, 25 Dec 2024 13:29:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:25:42.094276
- Title: Stationary Processes, Wiener-Granger Causality, and Matrix Spectral Factorization
- Title(参考訳): 定常過程, ウィナー・グレンジャー因果性, マトリックススペクトル分解
- Authors: Lasha Ephremidze,
- Abstract要約: 本稿では,Grangerの因果関係を詳細に概説し,その歴史的発展を辿り,近年の計算技術の進歩が様々な分野への応用をいかに促進するかを考察する。
提案手法の今後の方向性について,特に大規模データ分析の文脈で論じる。
- 参考スコア(独自算出の注目度): 0.3626013617212666
- License:
- Abstract: Granger causality has become an indispensable tool for analyzing causal relationships between time series. In this paper, we provide a detailed overview of its mathematical foundations, trace its historical development, and explore how recent computational advancements can enhance its application in various fields. We will not hesitate to present the proofs in full if they are simple and transparent. For more complex theorems on which we rely, we will provide supporting citations. We also discuss potential future directions for the method, particularly in the context of largescale data analysis.
- Abstract(参考訳): グランガー因果関係は時系列間の因果関係を分析するのに欠かせない道具となっている。
本稿では,その数学的基礎を詳述し,その史的発展を追究するとともに,近年の計算技術の進歩が様々な分野への応用をいかに促進するかを考察する。
それらが単純で透明であれば、証明を全面的に提示することはためらわない。
私たちが依存するより複雑な定理について、我々は補助的な引用を提供する。
また,本手法の今後の方向性について,特に大規模データ分析の文脈で論じる。
関連論文リスト
- Relational Learning in Pre-Trained Models: A Theory from Hypergraph Recovery Perspective [60.64922606733441]
我々は,関係学習をハイパーグラフリカバリとして形式化する数学的モデルを導入し,基礎モデル(FM)の事前学習について検討する。
我々のフレームワークでは、世界はハイパーグラフとして表現され、データはハイパーエッジからランダムなサンプルとして抽象化される。我々は、このハイパーグラフを復元するための事前学習モデル(PTM)の有効性を理論的に検証し、ミニマックスに近い最適スタイルでデータ効率を解析する。
論文 参考訳(メタデータ) (2024-06-17T06:20:39Z) - Position: What Can Large Language Models Tell Us about Time Series Analysis [69.70906014827547]
現在の大規模言語モデル(LLM)は時系列解析に革命をもたらす可能性があると我々は主張する。
このような進歩は、時系列のモダリティスイッチングや質問応答など、幅広い可能性を解き放つ可能性がある。
論文 参考訳(メタデータ) (2024-02-05T04:17:49Z) - Fine-Grained Zero-Shot Learning: Advances, Challenges, and Prospects [84.36935309169567]
ゼロショット学習(ZSL)における微粒化解析の最近の進歩を概観する。
まず、各カテゴリの詳細な分析を行い、既存の手法と手法の分類について述べる。
次に、ベンチマークを要約し、公開データセット、モデル、実装、およびライブラリとしての詳細について説明する。
論文 参考訳(メタデータ) (2024-01-31T11:51:24Z) - Directed Cyclic Graph for Causal Discovery from Multivariate Functional
Data [15.26007975367927]
因果構造学習のための機能線形構造方程式モデルを提案する。
解釈可能性を高めるために,本モデルは低次元因果埋め込み空間を含む。
提案モデルが標準仮定の下で因果的同定可能であることを示す。
論文 参考訳(メタデータ) (2023-10-31T15:19:24Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Machine Learning and the Future of Bayesian Computation [15.863162558281614]
機械学習のアイデアを用いた後続計算の改善の可能性について論じる。
また, 流動の正規化, ベイズコアセット, 分散ベイズ推定, 変分推定について検討した。
論文 参考訳(メタデータ) (2023-04-21T21:03:01Z) - Generalization Bounds with Data-dependent Fractal Dimensions [5.833272638548154]
フラクタル幾何学に基づく一般化境界をリプシッツの仮定を必要とせずに証明する。
技術的な複雑さは相当に多いが、この新しい概念は一般化誤差を制御できる。
論文 参考訳(メタデータ) (2023-02-06T13:24:48Z) - An Empirical Study: Extensive Deep Temporal Point Process [61.14164208094238]
本稿では,非同期イベントシーケンスを時間的プロセスでモデル化することの課題と最近の研究を概観する。
本稿では,多種類のイベント間の関係を生かしたGranger因果発見フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-19T10:15:00Z) - Bayesian Quadrature on Riemannian Data Manifolds [79.71142807798284]
データに固有の非線形幾何学構造をモデル化する原則的な方法が提供される。
しかし、これらの演算は通常計算的に要求される。
特に、正規法則上の積分を数値計算するためにベイズ二次(bq)に焦点を当てる。
先行知識と活発な探索手法を両立させることで,BQは必要な評価回数を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2021-02-12T17:38:04Z) - A New Perspective on Learning Context-Specific Independence [18.273290530700567]
文脈依存独立(CSI)のような局所構造は確率的グラフィカルモデル(PGM)の文献で注目されている。
本稿では,データからCSIを学習する方法について,新たな視点を提供する。
論文 参考訳(メタデータ) (2020-06-12T01:11:02Z) - On Geometry of Information Flow for Causal Inference [0.0]
本稿では, グラガー・コーサリティに関するノーベル賞受賞作品を含む情報の流れを考察する。
我々の主な貢献は、伝達エントロピーによって示される因果推論として情報フローの幾何学的解釈を可能にする分析ツールを開発することである。
論文 参考訳(メタデータ) (2020-02-06T02:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。