論文の概要: Numerical solutions of fixed points in two-dimensional Kuramoto-Sivashinsky equation expedited by reinforcement learning
- arxiv url: http://arxiv.org/abs/2501.00046v1
- Date: Fri, 27 Dec 2024 18:01:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 21:12:43.401485
- Title: Numerical solutions of fixed points in two-dimensional Kuramoto-Sivashinsky equation expedited by reinforcement learning
- Title(参考訳): 強化学習による2次元倉本・シヴァシンスキー方程式の不動点の数値解
- Authors: Juncheng Jiang, Dongdong Wan, Mengqi Zhang,
- Abstract要約: 本稿では, 深部強化学習(DRL)によるJacobian-Free Newton-Krylov法(JFNK)の有効性向上のための組み合わせアプローチを提案する。
文献に報告されていない2次元倉本・シヴァシンスキー方程式(KSE)の固定点の新結果について報告する。
- 参考スコア(独自算出の注目度): 2.4442174952832105
- License:
- Abstract: This paper presents a combined approach to enhancing the effectiveness of Jacobian-Free Newton-Krylov (JFNK) method by deep reinforcement learning (DRL) in identifying fixed points within the 2D Kuramoto-Sivashinsky Equation (KSE). JFNK approach entails a good initial guess for improved convergence when searching for fixed points. With a properly defined reward function, we utilise DRL as a preliminary step to enhance the initial guess in the converging process. We report new results of fixed points in the 2D KSE which have not been reported in the literature. Additionally, we explored control optimization for the 2D KSE to navigate the system trajectories between known fixed points, based on parallel reinforcement learning techniques. This combined method underscores the improved JFNK approach to finding new fixed-point solutions within the context of 2D KSE, which may be instructive for other high-dimensional dynamical systems.
- Abstract(参考訳): 本稿では,2次元倉本・シヴァシンスキー方程式(KSE)の定点同定において,深部強化学習(DRL)によるヤコビアン自由ニュートン・クリロフ法(JFNK)の有効性を高めるための組み合わせアプローチを提案する。
JFNKアプローチは、固定点を探索する際の収束性を改善するための良い初期推定を必要とする。
適切に定義された報酬関数を用いてDRLを予備的なステップとして利用し、収束過程における初期推測を強化する。
文献に報告されていない2次元KSEにおける固定点の新たな結果について報告する。
さらに,並列強化学習技術に基づく2次元KSEの制御最適化について検討した。
この組み合わせは、2次元 KSE の文脈内で新しい固定点解を見つけるための改良された JFNK アプローチの基盤となっている。
関連論文リスト
- A Deep-Genetic Algorithm (Deep-GA) Approach for High-Dimensional
Nonlinear Parabolic Partial Differential Equations [0.0]
本稿では,Deep-BSDE法の性能向上のために,ディープジェネティックアルゴリズム(deep-GA)と呼ばれる新しい手法を提案する。
初期推定選択に対する解の感度を認識し、遺伝的アルゴリズム(GA)を解法に組み込んで選択を最適化する。
提案手法は計算効率が大幅に向上し, 比較精度が向上することを示す。
論文 参考訳(メタデータ) (2023-11-20T06:35:23Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - A dual approach for federated learning [7.258643218674018]
我々は,Necoraらが開発した座標降下法に基づいて,FedDCDと呼ばれる新しいアルゴリズムを提案する。
提案手法は, 厳密な条件下での最先端の予備的フェデレーション最適化アルゴリズムよりも収束率が高いことを理論的に実証する。
論文 参考訳(メタデータ) (2022-01-26T20:51:24Z) - Boosting RANSAC via Dual Principal Component Pursuit [24.942079487458624]
本稿では,強力な理論的支援と効率的なアルゴリズムを備えた頑健な部分空間学習手法としてDual principal Component Pursuit (DPCP)を紹介した。
2次元ホモグラフ、基本行列、基本行列、および3次元ホモグラフテンソルの推定実験は、我々のアプローチが最先端の代替よりも一貫して精度が高いことを示している。
論文 参考訳(メタデータ) (2021-10-06T17:04:45Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Weighted Aggregating Stochastic Gradient Descent for Parallel Deep
Learning [8.366415386275557]
解決策には、ニューラルネットワークモデルにおける最適化のための目的関数の修正が含まれる。
本稿では,地方労働者のパフォーマンスに基づく分散型重み付けアグリゲーション方式を提案する。
提案手法を検証するため,提案手法をいくつかの一般的なアルゴリズムと比較した。
論文 参考訳(メタデータ) (2020-04-07T23:38:29Z) - Learning to Optimize Non-Rigid Tracking [54.94145312763044]
我々は、堅牢性を改善し、解法収束を高速化するために学習可能な最適化を採用する。
まず、CNNを通じてエンドツーエンドに学習された深い特徴にアライメントデータ項を統合することにより、追跡対象をアップグレードする。
次に,プレコンディショニング手法と学習手法のギャップを,プレコンディショナを生成するためにトレーニングされたConditionNetを導入することで埋める。
論文 参考訳(メタデータ) (2020-03-27T04:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。