論文の概要: Hard constraint learning approaches with trainable influence functions for evolutionary equations
- arxiv url: http://arxiv.org/abs/2502.17497v2
- Date: Wed, 19 Mar 2025 02:03:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:21:07.670704
- Title: Hard constraint learning approaches with trainable influence functions for evolutionary equations
- Title(参考訳): 進化方程式に対する訓練可能な影響関数を用いた厳密な制約学習手法
- Authors: Yushi Zhang, Shuai Su, Yong Wang, Yanzhong Yao,
- Abstract要約: 本稿では進化方程式を解くための新しい深層学習手法を開発する。
逐次学習戦略は、大きな時間領域を複数のサブインターバルに分割し、時系列順に1つずつ解決する。
改良されたハード制約戦略は、時間間隔ノードにおけるPINNソリューションの連続性と滑らかさを厳密に保証する。
- 参考スコア(独自算出の注目度): 8.812375888020398
- License:
- Abstract: This paper develops a novel deep learning approach for solving evolutionary equations, which integrates sequential learning strategies with an enhanced hard constraint strategy featuring trainable parameters, addressing the low computational accuracy of standard Physics-Informed Neural Networks (PINNs) in large temporal domains.Sequential learning strategies divide a large temporal domain into multiple subintervals and solve them one by one in a chronological order, which naturally respects the principle of causality and improves the stability of the PINN solution. The improved hard constraint strategy strictly ensures the continuity and smoothness of the PINN solution at time interval nodes, and at the same time passes the information from the previous interval to the next interval, which avoids the incorrect/trivial solution at the position far from the initial time. Furthermore, by investigating the requirements of different types of equations on hard constraints, we design a novel influence function with trainable parameters for hard constraints, which provides theoretical and technical support for the effective implementations of hard constraint strategies, and significantly improves the universality and computational accuracy of our method. In addition, an adaptive time-domain partitioning algorithm is proposed, which plays an important role in the application of the proposed method as well as in the improvement of computational efficiency and accuracy. Numerical experiments verify the performance of the method. The data and code accompanying this paper are available at https://github.com/zhizhi4452/HCS.
- Abstract(参考訳): 本稿では,大規模時間領域における標準物理情報ニューラルネットワーク(PINN)の計算精度の低さに対処する,訓練可能なパラメータを特徴とする逐次学習戦略と,逐次学習戦略を統合した進化方程式の深層学習手法を開発し,因果性の原理を自然に尊重し,PINNソリューションの安定性を向上させる。
改良されたハード制約戦略は、PINNソリューションの時間間隔ノードでの連続性と滑らかさを厳格に保証し、同時に、前区間から次の区間へ情報を渡すことにより、初期時刻から離れた位置での不正かつ自明な解を回避する。
さらに, 厳密な制約に対する異なる種類の方程式の要求を調査することにより, 厳密な制約に対する訓練可能なパラメータを持つ新しい影響関数を設計し, 厳密な制約戦略を効果的に実装するための理論的, 技術的支援を提供し, 提案手法の普遍性と計算精度を大幅に向上させる。
さらに, 適応時間領域分割アルゴリズムを提案し, 提案手法の適用と, 計算効率と精度の向上に重要な役割を担っている。
数値実験により,本手法の性能が検証された。
この論文に付随するデータとコードはhttps://github.com/zhizhi4452/HCSで公開されている。
関連論文リスト
- Efficiently Training Deep-Learning Parametric Policies using Lagrangian Duality [55.06411438416805]
制約付きマルコフ決定プロセス(CMDP)は、多くの高度な応用において重要である。
本稿では,パラメトリックアクターポリシーを効率的に訓練するための2段階深度決定規則(TS-DDR)を提案する。
現状の手法と比較して, 解の質を高め, 数桁の計算時間を削減できることが示されている。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - A Penalty-Based Guardrail Algorithm for Non-Decreasing Optimization with Inequality Constraints [1.5498250598583487]
伝統的な数学的プログラミングの解法は制約付き最小化問題を解くのに長い計算時間を必要とする。
ペナルティに基づくガードレールアルゴリズム(PGA)を提案する。
論文 参考訳(メタデータ) (2024-05-03T10:37:34Z) - TSONN: Time-stepping-oriented neural network for solving partial
differential equations [1.9061608251056779]
この研究は、PDE問題を解決するために、タイムステッピング法とディープラーニングを統合する。
擬似タイムステッピング過程の軌跡に従うことにより、モデルトレーニングの収束性を大幅に改善する。
提案手法は,標準のPINNでは解けない多くの問題において,安定したトレーニングと正しい結果が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T09:19:40Z) - Application of deep and reinforcement learning to boundary control
problems [0.6906005491572401]
目的は、囲まれたドメインが所望の状態値に達するように、ドメイン境界に対する最適な値を見つけることである。
本研究は,ディープラーニングと強化学習による境界制御問題の解決の可能性を探る。
論文 参考訳(メタデータ) (2023-10-21T10:56:32Z) - A unified scalable framework for causal sweeping strategies for
Physics-Informed Neural Networks (PINNs) and their temporal decompositions [22.514769448363754]
PINNとXPINNの時間依存型PDEのトレーニング課題について論じる。
PINNとXPINNのギャップを埋める新しい積み重ね分解法を提案する。
また,従来のPINNの因果性にインスパイアされた新しいタイムスウィーピング・コロケーション・ポイント・アルゴリズムを定式化した。
論文 参考訳(メタデータ) (2023-02-28T01:19:21Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Instance-Dependent Confidence and Early Stopping for Reinforcement
Learning [99.57168572237421]
強化学習(RL)のための様々なアルゴリズムは、その収束率の劇的な変動を問題構造の関数として示している。
この研究は、観察されたパフォーマンスの違いについて、textitexを説明する保証を提供する。
次の自然なステップは、これらの理論的保証を実際に有用なガイドラインに変換することです。
論文 参考訳(メタデータ) (2022-01-21T04:25:35Z) - The Statistical Complexity of Interactive Decision Making [126.04974881555094]
複雑度尺度であるDecision-Estimation Coefficientは,サンプル効率のインタラクティブ学習に必要かつ十分であることが証明された。
統合アルゴリズム設計原則であるE2Dは、教師付き推定のための任意のアルゴリズムを、意思決定のためのオンラインアルゴリズムに変換する。
論文 参考訳(メタデータ) (2021-12-27T02:53:44Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - Managing caching strategies for stream reasoning with reinforcement
learning [18.998260813058305]
ストリーム推論は、継続的なデータ変更よりも効率的な意思決定を可能にする。
我々は、衝突駆動制約学習(CDCL)を用いてレガシーソリューションを効率的に更新する新しいアプローチを提案する。
特に,強化学習の適用性について検討し,学習制約の有用性を継続的に評価する。
論文 参考訳(メタデータ) (2020-08-07T15:01:41Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。