論文の概要: MOCK: an Algorithm for Learning Nonparametric Differential Equations via Multivariate Occupation Kernel Functions
- arxiv url: http://arxiv.org/abs/2306.10189v3
- Date: Wed, 08 Jan 2025 04:27:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:54:11.568167
- Title: MOCK: an Algorithm for Learning Nonparametric Differential Equations via Multivariate Occupation Kernel Functions
- Title(参考訳): MOCK:多変量占領カーネル関数による非パラメトリック微分方程式の学習アルゴリズム
- Authors: Victor Rielly, Kamel Lahouel, Ethan Lew, Nicholas Fisher, Vicky Haney, Michael Wells, Bruno Jedynak,
- Abstract要約: d$次元状態空間の軌跡から得られる通常の微分方程式の非パラメトリック系は、$d$変数の$d$関数を学ぶ必要がある。
明示的な定式化はしばしば、スパーシティや対称性といったシステム特性に関する追加の知識が得られない限り、$d$で2次的にスケールする。
本稿では,ベクトル値を持つカーネルヒルベルト空間から得られる暗黙の定式化を用いて,線形アプローチ,多変量占有カーネル法(MOCK)を提案する。
- 参考スコア(独自算出の注目度): 0.6030884970981525
- License:
- Abstract: Learning a nonparametric system of ordinary differential equations from trajectories in a $d$-dimensional state space requires learning $d$ functions of $d$ variables. Explicit formulations often scale quadratically in $d$ unless additional knowledge about system properties, such as sparsity and symmetries, is available. In this work, we propose a linear approach, the multivariate occupation kernel method (MOCK), using the implicit formulation provided by vector-valued reproducing kernel Hilbert spaces. The solution for the vector field relies on multivariate occupation kernel functions associated with the trajectories and scales linearly with the dimension of the state space. We validate through experiments on a variety of simulated and real datasets ranging from 2 to 1024 dimensions. MOCK outperforms all other comparators on 3 of the 9 datasets on full trajectory prediction and 4 out of the 9 datasets on next-point prediction.
- Abstract(参考訳): 通常の微分方程式の非パラメトリック系を$d$次元状態空間の軌跡から学習するには、$d$変数の$d$関数を学ぶ必要がある。
明示的な定式化はしばしば、スパーシティや対称性といったシステム特性に関する追加の知識が得られない限り、$d$で2次的にスケールする。
本研究では,ベクトル値再生カーネルHilbert空間から得られる暗黙の定式化を用いて,線形アプローチとして多変量占有カーネル法(MOCK)を提案する。
ベクトル場の解は、軌跡に関連する多変量占領カーネル関数に依存し、状態空間の次元と線形にスケールする。
2次元から1024次元の様々なシミュレーションおよび実データに対する実験を通して検証を行う。
MOCKは、全軌道予測で9つのデータセットのうち3つ、次点予測で9つのデータセットのうち4つで他のコンパレータを上回っている。
関連論文リスト
- On the kernel learning problem [4.917649865600782]
カーネルリッジ回帰問題は、入力データである$Xin mathbbRd$の関数として出力$Y$に最適なものを見つけることを目的としている。
我々は、余剰行列パラメータ$U$を導入することにより、カーネルリッジ回帰問題の一般化を考える。
これは自然に$U$の選択を最適化する非線形変分問題につながる。
論文 参考訳(メタデータ) (2025-02-17T10:54:01Z) - Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - From Spectral Theorem to Statistical Independence with Application to
System Identification [11.98319841778396]
状態遷移行列 $|Ak|$ の有限パワーの崩壊率に関する最初の定量的ハンドルを提供する。
安定な力学系が 1 つの異なる固有値と差分しか持たないとき、$n-1$:$|A|$ は $n$ に依存することが示されている。
要素的誤差は、本質的にはよく知られたリトルウッド・オフォード問題の変種であることを示す。
論文 参考訳(メタデータ) (2023-10-16T15:40:43Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Adjoint-aided inference of Gaussian process driven differential
equations [0.8257490175399691]
本稿では,線形系の随伴性を用いて,GPとしてモデル化された強制関数を効率的に推論する方法を示す。
常微分方程式と偏微分方程式の両方の系に対するアプローチを実証する。
論文 参考訳(メタデータ) (2022-02-09T17:35:14Z) - Leverage Score Sampling for Tensor Product Matrices in Input Sparsity
Time [54.65688986250061]
我々は,$q$-foldカラムワイドテンソル積の$q$行列に対応するグラム行列を近似するための入力空間時間サンプリングアルゴリズムを提案する。
我々のサンプリング技術は、合計時間でデータセット$X$に同時に適用できる$q$部分相関ランダムプロジェクションのコレクションに依存している。
論文 参考訳(メタデータ) (2022-02-09T15:26:03Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - High-Dimensional Gaussian Process Inference with Derivatives [90.8033626920884]
低データ状態の$ND$では、Gram行列は$mathcalO(N2D + (N2)3)$に推論のコストを下げる方法で分解できることを示す。
最適化や予測勾配を持つハミルトニアンモンテカルロなど、機械学習に関連する様々なタスクでこの可能性を実証する。
論文 参考訳(メタデータ) (2021-02-15T13:24:41Z) - Multiscale regression on unknown manifolds [13.752772802705978]
マルチスケールで$mathcalM$に低次元座標を構築し、ローカルフィッティングによるマルチスケール回帰を行います。
本手法の一般化誤差を,事前のリッチクラス上で高い確率で有限サンプル境界を証明することによって解析する。
私たちのアルゴリズムは、サンプルサイズの準線形複雑性を持ち、定数は$D$で、指数は$d$です。
論文 参考訳(メタデータ) (2021-01-13T15:14:31Z) - Tight Nonparametric Convergence Rates for Stochastic Gradient Descent
under the Noiseless Linear Model [0.0]
このモデルに基づく最小二乗リスクに対する1パス, 固定段差勾配勾配の収束度を解析した。
特殊な場合として、ランダムなサンプリング点における値のノイズのない観測から単位区間上の実関数を推定するオンラインアルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-15T08:25:50Z) - A Random Matrix Analysis of Random Fourier Features: Beyond the Gaussian
Kernel, a Precise Phase Transition, and the Corresponding Double Descent [85.77233010209368]
本稿では、データサンプルの数が$n$である現実的な環境で、ランダムフーリエ(RFF)回帰の正確さを特徴付けます。
この分析はまた、大きな$n,p,N$のトレーニングとテスト回帰エラーの正確な推定も提供する。
論文 参考訳(メタデータ) (2020-06-09T02:05:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。