論文の概要: Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient
Kernels
- arxiv url: http://arxiv.org/abs/2310.05387v1
- Date: Mon, 9 Oct 2023 03:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 07:49:52.368542
- Title: Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient
Kernels
- Title(参考訳): ベイジアンスパイク・アンド・スラブ前駆体と効率的なカーネルによる方程式発見
- Authors: Da Long, Wei W. Xing, Aditi S. Krishnapriyan, Robert M. Kirby,
Shandian Zhe, Michael W. Mahoney
- Abstract要約: ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は、ベンチマークODEとPDE発見タスクのリストにおいて、KBASSの顕著な利点を示す。
- 参考スコア(独自算出の注目度): 60.35011738807833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discovering governing equations from data is important to many scientific and
engineering applications. Despite promising successes, existing methods are
still challenged by data sparsity as well as noise issues, both of which are
ubiquitous in practice. Moreover, state-of-the-art methods lack uncertainty
quantification and/or are costly in training. To overcome these limitations, we
propose a novel equation discovery method based on Kernel learning and BAyesian
Spike-and-Slab priors (KBASS). We use kernel regression to estimate the target
function, which is flexible, expressive, and more robust to data sparsity and
noises. We combine it with a Bayesian spike-and-slab prior -- an ideal Bayesian
sparse distribution -- for effective operator selection and uncertainty
quantification. We develop an expectation propagation expectation-maximization
(EP-EM) algorithm for efficient posterior inference and function estimation. To
overcome the computational challenge of kernel regression, we place the
function values on a mesh and induce a Kronecker product construction, and we
use tensor algebra methods to enable efficient computation and optimization. We
show the significant advantages of KBASS on a list of benchmark ODE and PDE
discovery tasks.
- Abstract(参考訳): データから制御方程式を発見することは、多くの科学的および工学的応用にとって重要である。
有望な成功にもかかわらず、既存の手法は依然としてデータのスパーシティとノイズの問題によって挑戦されている。
さらに、最先端の手法は不確かさの定量化を欠き、訓練に費用がかかる。
これらの制約を克服するために,Kernel LearningとBAyesian Spike-and-Slab priors (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
効果的な演算子選択と不確かさの定量化のために、ベイズスパイク・アンド・スラブプリア(理想的なベイズ・スパース分布)と組み合わせる。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化(EP-EM)アルゴリズムを開発した。
カーネル回帰の計算上の課題を克服するために,関数値をメッシュに配置し,クロネッカー積構成を誘導し,テンソル代数法を用いて効率的な計算と最適化を実現する。
我々は、ベンチマークODEとPDE発見タスクのリストにおいて、KBASSの顕著な利点を示す。
関連論文リスト
- Provably Efficient Bayesian Optimization with Unbiased Gaussian Process
Hyperparameter Estimation [52.035894372374756]
目的関数の大域的最適値にサブ線形収束できる新しいBO法を提案する。
本手法では,BOプロセスにランダムなデータポイントを追加するために,マルチアームバンディット法 (EXP3) を用いる。
提案手法は, 様々な合成および実世界の問題に対して, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-12T03:35:45Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - A Stochastic Bundle Method for Interpolating Networks [18.313879914379008]
本稿では,実験的な損失をゼロにすることができるディープニューラルネットワークのトレーニング手法を提案する。
各イテレーションにおいて,本手法は目的学習近似のバンドルとして知られる最大線形近似を構成する。
論文 参考訳(メタデータ) (2022-01-29T23:02:30Z) - Physics Informed Deep Kernel Learning [24.033468062984458]
物理インフォームドディープカーネル学習(PI-DKL)は、遅延源を持つ微分方程式で表される物理知識を利用する。
効率的かつ効果的な推論のために、潜伏変数を疎外し、崩壊したモデルエビデンスローバウンド(ELBO)を導出する。
論文 参考訳(メタデータ) (2020-06-08T22:43:31Z) - Scalable Approximate Inference and Some Applications [2.6541211006790983]
本稿では,近似推論のための新しいフレームワークを提案する。
提案する4つのアルゴリズムは,Steinの手法の最近の計算進歩に動機付けられている。
シミュレーションおよび実データを用いた結果から,アルゴリズムの統計的効率と適用性を示す。
論文 参考訳(メタデータ) (2020-03-07T04:33:27Z) - Enhancement of shock-capturing methods via machine learning [0.0]
我々は不連続解を用いてPDEをシミュレートするための改良された有限体積法を開発した。
5階WENO法の結果を改善するためにニューラルネットワークを訓練する。
数値解が過度に拡散するシミュレーションにおいて,本手法はWENOよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-02-06T21:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。