論文の概要: A Variational Framework for Residual-Based Adaptivity in Neural PDE Solvers and Operator Learning
- arxiv url: http://arxiv.org/abs/2509.14198v1
- Date: Wed, 17 Sep 2025 17:34:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.940963
- Title: A Variational Framework for Residual-Based Adaptivity in Neural PDE Solvers and Operator Learning
- Title(参考訳): ニューラルPDE解と演算子学習における残差に基づく適応性のための変分フレームワーク
- Authors: Juan Diego Toscano, Daniel T. Chen, Vivek Oommen, George Em Karniadakis,
- Abstract要約: 残差ベースの適応戦略は機械学習で広く使われているが、多くは残っている。
残差の凸変換を統合することにより,これらの手法を形式化する統一的変分フレームワークを導入する。
本結果は,残差に基づく適応性の理論的正当性を提供し,原理的離散化と訓練戦略の基礎を確立した。
- 参考スコア(独自算出の注目度): 4.032628442222966
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Residual-based adaptive strategies are widely used in scientific machine learning but remain largely heuristic. We introduce a unifying variational framework that formalizes these methods by integrating convex transformations of the residual. Different transformations correspond to distinct objective functionals: exponential weights target the minimization of uniform error, while linear weights recover the minimization of quadratic error. Within this perspective, adaptive weighting is equivalent to selecting sampling distributions that optimize the primal objective, thereby linking discretization choices directly to error metrics. This principled approach yields three benefits: (1) it enables systematic design of adaptive schemes across norms, (2) reduces discretization error through variance reduction of the loss estimator, and (3) enhances learning dynamics by improving the gradient signal-to-noise ratio. Extending the framework to operator learning, we demonstrate substantial performance gains across optimizers and architectures. Our results provide a theoretical justification of residual-based adaptivity and establish a foundation for principled discretization and training strategies.
- Abstract(参考訳): 残差に基づく適応戦略は科学機械学習で広く使われているが、主にヒューリスティックである。
残差の凸変換を統合することにより,これらの手法を形式化する統一的変分フレームワークを導入する。
指数重みは均一誤差の最小化を目標とし、線形重みは二次誤差の最小化を最小化する。
この観点では、適応重み付けは、主目的を最適化するサンプリング分布を選択することと等価であり、したがって離散化の選択をエラーメトリクスに直接リンクする。
本手法は,(1)ノルム間の適応スキームの体系的設計,(2)損失推定器の分散化による離散化誤差の低減,(3)勾配信号-雑音比の改善による学習力学の向上,の3つの利点をもたらす。
フレームワークを演算子学習に拡張することにより、オプティマイザやアーキテクチャ間での大幅なパフォーマンス向上を実証する。
本結果は,残差に基づく適応性の理論的正当性を提供し,原理的離散化と訓練戦略の基礎を確立した。
関連論文リスト
- Learnable SMPLify: A Neural Solution for Optimization-Free Human Pose Inverse Kinematics [13.621560002904873]
Learnable SMPLifyは、SMPLifyの反復フィッティングプロセスをシングルパス回帰モデルに置き換えるニューラルネットワークフレームワークである。
SMPLifyに比べて200倍近く高速なランタイムを実現し、3DPWやRICHによく対応し、LucidActionのプラグインツールとして使用する場合、モデルに依存しない方法として動作する。
論文 参考訳(メタデータ) (2025-08-19T06:53:57Z) - Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Adaptive pruning-based Newton's method for distributed learning [14.885388389215587]
本稿では,分散適応ニュートン学習(textttDANL)という,新規で効率的なアルゴリズムを提案する。
textttDANLは、利用可能なリソースに効率よく適応し、高い効率を維持しながら、線形収束率を達成する。
実験により、textttDANLは、効率的な通信と異なるデータセット間の強い性能で線形収束を実現することが示された。
論文 参考訳(メタデータ) (2023-08-20T04:01:30Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Learning Stochastic Graph Neural Networks with Constrained Variance [18.32587282139282]
グラフニューラルネットワーク(Graph Neural Network, SGNN)は、ランダムグラフ上のデータから表現を学習する情報処理アーキテクチャである。
本稿では,SGNNに対する分散制約付き最適化問題を提案し,予測性能と偏差のバランスをとる。
降下したSGNNパラメータと昇降した双対変数を更新することで問題を解く。
論文 参考訳(メタデータ) (2022-01-29T15:55:58Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。