論文の概要: Parametric Numerical Integration with (Differential) Machine Learning
- arxiv url: http://arxiv.org/abs/2512.11530v1
- Date: Fri, 12 Dec 2025 13:00:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.772039
- Title: Parametric Numerical Integration with (Differential) Machine Learning
- Title(参考訳): 微分)機械学習を用いたパラメトリック数値積分
- Authors: Álvaro Leitao, Jonatan Ráfales,
- Abstract要約: パラメトリック積分を解くための機械/深度学習手法を提案する。
我々は、学習中に微分情報を組み込んだ差分学習フレームワークを考察し、その利点を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we introduce a machine/deep learning methodology to solve parametric integrals. Besides classical machine learning approaches, we consider a differential learning framework that incorporates derivative information during training, emphasizing its advantageous properties. Our study covers three representative problem classes: statistical functionals (including moments and cumulative distribution functions), approximation of functions via Chebyshev expansions, and integrals arising directly from differential equations. These examples range from smooth closed-form benchmarks to challenging numerical integrals. Across all cases, the differential machine learning-based approach consistently outperforms standard architectures, achieving lower mean squared error, enhanced scalability, and improved sample efficiency.
- Abstract(参考訳): 本研究では,パラメトリック積分を解くための機械/深度学習手法を提案する。
従来の機械学習手法の他に、学習中に微分情報を組み込んだ微分学習フレームワークも検討し、その利点を強調した。
本研究は、統計関数(モーメントや累積分布関数を含む)、チェビシェフ展開による関数近似、微分方程式から直接生じる積分の3つの代表的な問題クラスをカバーする。
これらの例は滑らかな閉形式ベンチマークから挑戦的な数値積分まで様々である。
あらゆるケースにおいて、差分機械学習ベースのアプローチは標準アーキテクチャを一貫して上回り、平均二乗誤差の低減、スケーラビリティの向上、サンプル効率の向上を実現している。
関連論文リスト
- Weak Form Scientific Machine Learning: Test Function Construction for System Identification [0.0]
弱形科学機械学習(WSciML)は、最近開発されたデータ駆動モデリングと科学的発見のためのフレームワークである。
我々は,テスト関数の集合を生成するための単一スケールローカル参照関数を構築するための新しいデータ駆動手法を数学的に動機付けている。
提案手法は, 積分誤差を数値的に近似し, 誤差が最小となるサポートサイズを同定する。
論文 参考訳(メタデータ) (2025-07-03T22:36:34Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
本研究では,(マルチモーダル)自己教師型表現学習のデータ予測タスクにおいて,連続領域における識別確率モデルについて検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
MISが要求する条件付き確率密度の和を近似する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - A Physics-Informed Machine Learning Approach for Solving Distributed Order Fractional Differential Equations [0.0]
本稿では,物理インフォームド機械学習フレームワークを用いた分散次分数差分方程式の解法を提案する。
分散階関数式をSVRフレームワークに組み込むことで、物理法則を直接学習プロセスに組み込む。
提案手法の有効性は,Caputo-based distributed-order fractional differential equationsの数値実験を通じて検証した。
論文 参考訳(メタデータ) (2024-09-05T13:20:10Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - AutoIP: A United Framework to Integrate Physics into Gaussian Processes [15.108333340471034]
あらゆる微分方程式をガウス過程に統合できる枠組みを提案する。
本手法は,シミュレーションと実世界の応用の両方において,バニラGPの改善を示す。
論文 参考訳(メタデータ) (2022-02-24T19:02:14Z) - Personalized Algorithm Generation: A Case Study in Meta-Learning ODE
Integrators [6.457555233038933]
科学計算における数値アルゴリズムのメタラーニングに関する研究
初期値問題の解法を自動的に学習する機械学習手法を開発した。
論文 参考訳(メタデータ) (2021-05-04T05:42:33Z) - A mathematical model for automatic differentiation in machine learning [0.0]
簡単な関数のクラス、非滑らかな計算を提供し、それらが近似法にどのように適用されるかを示す。
また、アルゴリズムの微分によって生成された人工臨界点の問題も証明し、通常の手法がそれらの点を確率1で避けていることを示す。
論文 参考訳(メタデータ) (2020-06-03T07:33:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。