論文の概要: Data-Efficient Kernel Methods for Learning Differential Equations and Their Solution Operators: Algorithms and Error Analysis
- arxiv url: http://arxiv.org/abs/2503.01036v1
- Date: Sun, 02 Mar 2025 21:48:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:21:59.987875
- Title: Data-Efficient Kernel Methods for Learning Differential Equations and Their Solution Operators: Algorithms and Error Analysis
- Title(参考訳): 微分方程式とその解演算子を学習するためのデータ効率の良いカーネル法:アルゴリズムと誤り解析
- Authors: Yasamin Jalalian, Juan Felipe Osorio Ramirez, Alexander Hsu, Bamdad Hosseini, Houman Owhadi,
- Abstract要約: 我々は、微分方程式とその解マップを学習するための新しいカーネルベースのフレームワークを、データ要求において効率的に導入する。
我々のアプローチは数学的に解釈可能であり、学習方程式の量的最悪の誤り境界の形で厳密な理論的保証によって裏付けられている。
- 参考スコア(独自算出の注目度): 40.72119156403829
- License:
- Abstract: We introduce a novel kernel-based framework for learning differential equations and their solution maps that is efficient in data requirements, in terms of solution examples and amount of measurements from each example, and computational cost, in terms of training procedures. Our approach is mathematically interpretable and backed by rigorous theoretical guarantees in the form of quantitative worst-case error bounds for the learned equation. Numerical benchmarks demonstrate significant improvements in computational complexity and robustness while achieving one to two orders of magnitude improvements in terms of accuracy compared to state-of-the-art algorithms.
- Abstract(参考訳): 本稿では,差分方程式を学習する新しいカーネルベースのフレームワークとその解マップについて紹介する。このフレームワークは,各例からの解例,測定量,計算コストを,学習手順の観点から,データ要求において効率的である。
我々のアプローチは数学的に解釈可能であり、学習方程式の量的最悪の誤り境界の形で厳密な理論的保証によって裏付けられている。
数値ベンチマークでは、計算複雑性とロバストネスが大幅に向上し、最先端のアルゴリズムに比べて精度が1~2桁向上した。
関連論文リスト
- Linearly Convergent Mixup Learning [0.0]
より広い範囲のバイナリ分類モデルに拡張する2つの新しいアルゴリズムを提案する。
勾配に基づくアプローチとは異なり、我々のアルゴリズムは学習率のようなハイパーパラメータを必要とせず、実装と最適化を単純化する。
我々のアルゴリズムは、降下勾配法と比較して最適解への高速収束を実現し、ミックスアップデータの増大は、様々な損失関数の予測性能を一貫して改善する。
論文 参考訳(メタデータ) (2025-01-14T02:33:40Z) - Equation discovery framework EPDE: Towards a better equation discovery [50.79602839359522]
進化的最適化に基づく発見フレームワークであるEPDEアルゴリズムを強化する。
提案手法は基本関数や個人差分といった基本構造ブロックを用いて用語を生成する。
我々は,提案アルゴリズムの耐雑音性および全体的な性能を,最先端の方程式探索フレームワークであるSINDyの結果と比較することによって検証する。
論文 参考訳(メタデータ) (2024-12-28T15:58:44Z) - A resource-efficient model for deep kernel learning [0.0]
精度の低下を最小限に抑えた学習計算の高速化には,様々なアプローチがある。
本稿では,演算子の分解とネットワークの分解を併用したモデルレベルの分解手法について述べる。
得られたアルゴリズムの精度とスケーラビリティの両面から実現可能性解析を行う。
論文 参考訳(メタデータ) (2024-10-13T17:11:42Z) - Solving Fractional Differential Equations on a Quantum Computer: A Variational Approach [0.1492582382799606]
本稿では, 時間-屈折偏微分方程式の解法として, 効率的な変分型量子古典アルゴリズムを提案する。
その結果, 解の忠実度は分数指数に不感であり, 勾配評価コストは時間ステップ数とともに経済的にスケールすることがわかった。
論文 参考訳(メタデータ) (2024-06-13T02:27:16Z) - Comparison of Single- and Multi- Objective Optimization Quality for
Evolutionary Equation Discovery [77.34726150561087]
進化的微分方程式の発見は、より優先順位の低い方程式を得るための道具であることが証明された。
提案した比較手法は、バーガーズ方程式、波動方程式、コルテヴェーグ・ド・ブリーズ方程式といった古典的なモデル例で示される。
論文 参考訳(メタデータ) (2023-06-29T15:37:19Z) - Robust SDE-Based Variational Formulations for Solving Linear PDEs via
Deep Learning [6.1678491628787455]
モンテカルロ法とディープラーニングを組み合わせることで、高次元の偏微分方程式(PDE)を解くアルゴリズムが効率的になった。
関連する学習問題は、しばしば関連する微分方程式(SDE)に基づく変分定式化として記述される。
したがって、収束を正確にかつ迅速に到達するためには、低分散を示す適切な勾配推定器に頼ることが重要である。
論文 参考訳(メタデータ) (2022-06-21T17:59:39Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。