論文の概要: Nonlinear Granger Causality using Kernel Ridge Regression
- arxiv url: http://arxiv.org/abs/2309.05107v1
- Date: Sun, 10 Sep 2023 18:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 14:38:38.449311
- Title: Nonlinear Granger Causality using Kernel Ridge Regression
- Title(参考訳): カーネルリッジ回帰を用いた非線形グランガー因果関係
- Authors: Wojciech "Victor" Fulmyk
- Abstract要約: 非線形グランガー因果関係の同定を目的とした新しいアルゴリズムと,それに伴うPythonライブラリであるmlcausalityを紹介した。
予測回帰器が放射基底関数カーネルを持つカーネルリッジ回帰器である場合のmlcausalityの総合的な性能解析を行う。
その結果,カーネルリッジ回帰を用いたmlcausalityは,多種多様なシミュレーションデータ間で競合するAUCスコアを得ることができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: I introduce a novel algorithm and accompanying Python library, named
mlcausality, designed for the identification of nonlinear Granger causal
relationships. This novel algorithm uses a flexible plug-in architecture that
enables researchers to employ any nonlinear regressor as the base prediction
model. Subsequently, I conduct a comprehensive performance analysis of
mlcausality when the prediction regressor is the kernel ridge regressor with
the radial basis function kernel. The results demonstrate that mlcausality
employing kernel ridge regression achieves competitive AUC scores across a
diverse set of simulated data. Furthermore, mlcausality with kernel ridge
regression yields more finely calibrated $p$-values in comparison to rival
algorithms. This enhancement enables mlcausality to attain superior accuracy
scores when using intuitive $p$-value-based thresholding criteria. Finally,
mlcausality with the kernel ridge regression exhibits significantly reduced
computation times compared to existing nonlinear Granger causality algorithms.
In fact, in numerous instances, this innovative approach achieves superior
solutions within computational timeframes that are an order of magnitude
shorter than those required by competing algorithms.
- Abstract(参考訳): 非線形グランガー因果関係の同定を目的とした新しいアルゴリズムと,それに伴うPythonライブラリであるmlcausalityを紹介した。
このアルゴリズムはフレキシブルなプラグインアーキテクチャを用いており、研究者は任意の非線形回帰器をベース予測モデルとして利用することができる。
その後、予測回帰器が放射基底関数カーネルを持つカーネルリッジ回帰器である場合に、mlcausalityの総合的な性能解析を行う。
その結果,カーネルリッジ回帰を用いたmlcausalityは,多種多様なシミュレーションデータ間で競合するAUCスコアを得ることができた。
さらに、カーネルリッジ回帰によるmlcausalityは、競合するアルゴリズムと比較してより微調整された$p$-valueが得られる。
この強化により、直感的な$p$-value-based thresholding criteriaを使用する場合、mlcausalityは優れた精度スコアを得ることができる。
最後に、カーネルリッジ回帰によるmlcausalityは、既存の非線形グランガー因果アルゴリズムと比較して計算時間を著しく短縮する。
実際、多くの例において、この革新的なアプローチは、競合するアルゴリズムが必要とするものよりも桁違いに短い計算時間枠内で優れた解を実現できる。
関連論文リスト
- Calibrated Computation-Aware Gaussian Processes [1.1470070927586018]
本稿では,ガウス・シーデルの繰り返しを基礎となる確率線形解法に用いた新しいCAGPフレームワークCAGP-GSを提案する。
合成問題に対する校正性を検証し, 大規模大域温度回帰問題に対する既存手法との比較を行った。
論文 参考訳(メタデータ) (2024-10-11T13:30:08Z) - Agnostic Learning of Mixed Linear Regressions with EM and AM Algorithms [22.79595679373698]
混合線形回帰は統計学と機械学習においてよく研究されている問題である。
本稿では、サンプルから混合線形回帰を学習する際のより一般的な問題について考察する。
AMアルゴリズムとEMアルゴリズムは, 集団損失最小化器に収束することにより, 混合線形回帰学習につながることを示す。
論文 参考訳(メタデータ) (2024-06-03T09:43:24Z) - Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Improved Convergence Rates for Sparse Approximation Methods in
Kernel-Based Learning [48.08663378234329]
カーネル・リッジ・レグレッションやガウシアン・プロセスのようなカーネル・ベース・モデルは機械学習の応用においてユビキタスである。
既存のスパース近似法は計算コストを大幅に削減することができる。
我々は,Nystr"om法と疎変動ガウス過程近似法に対して,新しい信頼区間を提供する。
論文 参考訳(メタデータ) (2022-02-08T17:22:09Z) - Robust Regression Revisited: Acceleration and Improved Estimation Rates [25.54653340884806]
強い汚染モデルの下で, 統計的回帰問題に対する高速アルゴリズムについて検討する。
目的は、逆向きに破損したサンプルを与えられた一般化線形モデル(GLM)を概ね最適化することである。
実行時や推定保証が改善された頑健な回帰問題に対して,ほぼ直線的な時間アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-22T17:21:56Z) - Sparse Bayesian Learning via Stepwise Regression [1.2691047660244335]
我々は、RMP(Relevance Matching Pursuit)と呼ばれるSBLのための座標加算アルゴリズムを提案する。
ノイズ分散パラメータがゼロになるにつれて、RMPはステップワイド回帰と驚くべき関係を示す。
ステップワイド回帰アルゴリズムの新たな保証を導き、RMPにも光を当てる。
論文 参考訳(メタデータ) (2021-06-11T00:20:27Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Piecewise linear regression and classification [0.20305676256390928]
本稿では,線形予測器を用いた多変量回帰と分類問題の解法を提案する。
本論文で記述されたアルゴリズムのpython実装は、http://cse.lab.imtlucca.it/bemporad/parcで利用可能である。
論文 参考訳(メタデータ) (2021-03-10T17:07:57Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Multiscale Non-stationary Stochastic Bandits [83.48992319018147]
本稿では,非定常線形帯域問題に対して,Multiscale-LinUCBと呼ばれる新しいマルチスケール変更点検出法を提案する。
実験結果から,提案手法は非定常環境下での他の最先端アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-02-13T00:24:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。