論文の概要: RRaPINNs: Residual Risk-Aware Physics Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2511.18515v1
- Date: Sun, 23 Nov 2025 16:10:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.87662
- Title: RRaPINNs: Residual Risk-Aware Physics Informed Neural Networks
- Title(参考訳): RRaPINNs: 残留リスクを意識した物理インフォームドニューラルネットワーク
- Authors: Ange-Clément Akazan, Issa Karambal, Jean Medard Ngnotchouye, Abebe Geletu Selassie. W,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は通常、大きな局所的なエラーを隠蔽する平均残差を最小化する。
CVaR(Residual Risk-Aware Physics-Informed Neural Networks PINNs)を提案する。
本稿では, メモリレスサンプリング, グローバルのみのテール予算, 残留中心リスクなどのフレームワークの制限について論じ, 永続的ハードポイント再生, 局所的リスク予算, およびBC/IC用語に対する多目的リスクを概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Physics-informed neural networks (PINNs) typically minimize average residuals, which can conceal large, localized errors. We propose Residual Risk-Aware Physics-Informed Neural Networks PINNs (RRaPINNs), a single-network framework that optimizes tail-focused objectives using Conditional Value-at-Risk (CVaR), we also introduced a Mean-Excess (ME) surrogate penalty to directly control worst-case PDE residuals. This casts PINN training as risk-sensitive optimization and links it to chance-constrained formulations. The method is effective and simple to implement. Across several partial differential equations (PDEs) such as Burgers, Heat, Korteweg-de-Vries, and Poisson (including a Poisson interface problem with a source jump at x=0.5) equations, RRaPINNs reduce tail residuals while maintaining or improving mean errors compared to vanilla PINNs, Residual-Based Attention and its variant using convolution weighting; the ME surrogate yields smoother optimization than a direct CVaR hinge. The chance constraint reliability level $α$ acts as a transparent knob trading bulk accuracy (lower $α$ ) for stricter tail control (higher $α$ ). We discuss the framework limitations, including memoryless sampling, global-only tail budgeting, and residual-centric risk, and outline remedies via persistent hard-point replay, local risk budgets, and multi-objective risk over BC/IC terms. RRaPINNs offer a practical path to reliability-aware scientific ML for both smooth and discontinuous PDEs.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は通常、大きな局所的なエラーを隠蔽する平均残差を最小化する。
本稿では,条件付き値-アット・リスク(CVaR)を用いた単一ネットワークフレームワークであるResidual Risk-Aware Physics-Informed Neural Networks PINNs (RRaPINNs)を提案するとともに,最悪のPDE残基を直接制御するためのMean-Excess (ME)サロゲートペナルティも導入した。
これにより、PINNトレーニングをリスクに敏感な最適化とし、リスク制約のある定式化にリンクする。
この方法は効果的で実装が簡単です。
Burgers, Heat, Korteweg-de-Vries, Poisson (pisson Interface problem with a source jump at x=0.5) equations, RRaPINNsは、バニラPINN、Residual-Based Attentionおよび畳み込み重み付けを用いたその変種と比較して平均誤差を維持したり改善したりしながら、テール残差を減少させ、MEサロゲートは直接CVaRヒンジよりもスムーズな最適化をもたらす。
確率制約信頼性レベル$α$は、より厳密なテールコントロール(より高い$α$ )のために透明なノブ取引バルク精度(より低い$α$ )として機能する。
本稿では, メモリレスサンプリング, グローバルのみのテール予算, 残留中心リスクなどのフレームワークの制約について論じ, 永続的ハードポイントリプレイ, ローカルリスク予算, およびBC/IC用語に対する多目的リスクを概説する。
RRaPINNは、スムーズなPDEと不連続なPDEの両方に対して、信頼性に配慮した科学的MLへの実践的なパスを提供する。
関連論文リスト
- Neural PDE Solvers with Physics Constraints: A Comparative Study of PINNs, DRM, and WANs [1.131316248570352]
部分方程式 (PDE) は、科学や工学にまたがるモデルを支えるが、解析解は非定型であり、古典的なメッシュベースの解法は高次元でコストがかかる。
この論文は、3つのメッシュフリーニューラルネットワークPDEソルバ、物理インフォームドニューラルネットワーク(PINN)、ディープリッツ法(DRM)、弱い敵ネットワーク(WAN)、ポアソン問題(最大5D)と1D/2Dにおける時間非依存シュラーオーディンガー方程式の統一的な比較を提示する。
論文 参考訳(メタデータ) (2025-10-09T13:41:51Z) - Ultra-Reliable Risk-Aggregated Sum Rate Maximization via Model-Aided Deep Learning [3.4155322317700585]
本稿では, チャネルフェージング不確実性/リスクに対する信頼度(ウルトラ)を増大させる関数として, CVaR(Conditional Value-at-Risk)を用いた複雑なWSR問題のリスク集約式を提案する。
トレーニングされたαRGNNは、ユーザ毎の深度低下を完全に排除し、十分なエルゴード性能を維持しながら、統計的ユーザ率の変動性を実質的にかつ最適に低減することを示す。
論文 参考訳(メタデータ) (2025-09-30T14:24:04Z) - Benefits of Online Tilted Empirical Risk Minimization: A Case Study of Outlier Detection and Robust Regression [7.238889207632064]
経験的リスク最小化(Empirical Risk Minimization、ERM)は、教師付き学習の基礎となるフレームワークである。
データが一度に1つのサンプルに到達するオンラインまたはストリーミング設定では、古典的なTERMは標準ERMに縮退する。
本稿では,従来の目的から対数を取り除き,新たな計算やメモリオーバーヘッドを伴わずに傾き効果を保存するオンラインTERMを提案する。
論文 参考訳(メタデータ) (2025-09-18T16:51:23Z) - R-Stitch: Dynamic Trajectory Stitching for Efficient Reasoning [80.104336426172]
CoT(Chain-of- Thought)は、大規模言語モデルの問題解決能力を高める。
CoTは長い自己回帰軌道のためにかなりの推論コストを発生させる。
トレーニング不要なハイブリッドデコーディングフレームワークであるR-Stitchを紹介する。
論文 参考訳(メタデータ) (2025-07-23T08:14:36Z) - Distributionally Robust Optimization with Adversarial Data Contamination [49.89480853499918]
凸リプシッツ損失関数を持つ一般化線形モデルに対するワッサーシュタイン-1 DRO 目標の最適化に焦点をあてる。
私たちの主な貢献は、データ汚染のトレーニングに対するロバストネスと分散シフトに対するロバストネスを統合した、新しいモデリングフレームワークです。
この研究は、データ汚染と分散シフトという2つの課題の下で学習するために、効率的な計算によって支援される最初の厳密な保証を確立する。
論文 参考訳(メタデータ) (2025-07-14T18:34:10Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Enhancing Reliability of Neural Networks at the Edge: Inverted
Normalization with Stochastic Affine Transformations [0.22499166814992438]
インメモリコンピューティングアーキテクチャに実装されたBayNNのロバスト性と推論精度を本質的に向上する手法を提案する。
実証的な結果は推論精度の優雅な低下を示し、最大で58.11%の値で改善された。
論文 参考訳(メタデータ) (2024-01-23T00:27:31Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Failure-informed adaptive sampling for PINNs [5.723850818203907]
物理学インフォームドニューラルネットワーク(PINN)は、幅広い領域でPDEを解決する効果的な手法として登場した。
しかし、最近の研究では、異なるサンプリング手順でPINNの性能が劇的に変化することが示されている。
本稿では,信頼度分析の視点から,故障インフォームドPINNという適応的手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T13:34:41Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。