論文の概要: A neural network approach for solving the Monge-Ampère equation with transport boundary condition
- arxiv url: http://arxiv.org/abs/2410.19496v1
- Date: Fri, 25 Oct 2024 11:54:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:36:06.683437
- Title: A neural network approach for solving the Monge-Ampère equation with transport boundary condition
- Title(参考訳): 輸送境界条件を持つモンジェ・アンペール方程式のニューラルネットワークによる解法
- Authors: Roel Hacking, Lisa Kusch, Koondanibha Mitra, Martijn Anthonissen, Wilbert IJzerman,
- Abstract要約: 本稿では,輸送境界条件でモンジュ・アンペア方程式を解くためのニューラルネットワークに基づく新しい手法を提案する。
我々は、方程式の残差、境界条件、凸性制約を含む損失関数を最小化することにより、多層パーセプトロンネットワークを利用して近似解を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper introduces a novel neural network-based approach to solving the Monge-Amp\`ere equation with the transport boundary condition, specifically targeted towards optical design applications. We leverage multilayer perceptron networks to learn approximate solutions by minimizing a loss function that encompasses the equation's residual, boundary conditions, and convexity constraints. Our main results demonstrate the efficacy of this method, optimized using L-BFGS, through a series of test cases encompassing symmetric and asymmetric circle-to-circle, square-to-circle, and circle-to-flower reflector mapping problems. Comparative analysis with a conventional least-squares finite-difference solver reveals the competitive, and often superior, performance of our neural network approach on the test cases examined here. A comprehensive hyperparameter study further illuminates the impact of factors such as sampling density, network architecture, and optimization algorithm. While promising, further investigation is needed to verify the method's robustness for more complicated problems and to ensure consistent convergence. Nonetheless, the simplicity and adaptability of this neural network-based approach position it as a compelling alternative to specialized partial differential equation solvers.
- Abstract(参考訳): 本稿では,光設計用途に特化して,輸送境界条件を用いたモンジュ・アンプ・エル方程式の解法を提案する。
我々は、方程式の残差、境界条件、凸性制約を含む損失関数を最小化することにより、多層パーセプトロンネットワークを利用して近似解を学習する。
L-BFGSを用いて最適化した本手法の有効性を, 対称および非対称円周円, 正方円, 円-円-円, 円-円-円リフレクタマッピング問題を含む一連のテストケースを用いて実証した。
従来の最小二乗有限差分解器との比較分析により, ニューラルネットワークを用いた実験事例における性能の競争力, 性能の両立が明らかとなった。
包括的ハイパーパラメーター研究はサンプリング密度、ネットワークアーキテクチャ、最適化アルゴリズムなどの要因の影響をさらに照らしている。
将来性はあるものの、より複雑な問題に対する手法の堅牢性を検証し、一貫した収束を保証するためにはさらなる調査が必要である。
それでも、このニューラルネットワークベースのアプローチの単純さと適応性は、特殊偏微分方程式解法に対する魅力的な代替品として位置づけられている。
関連論文リスト
- Verification of Geometric Robustness of Neural Networks via Piecewise Linear Approximation and Lipschitz Optimisation [57.10353686244835]
我々は、回転、スケーリング、せん断、翻訳を含む入力画像の幾何学的変換に対するニューラルネットワークの検証の問題に対処する。
提案手法は, 分枝・分枝リプシッツと組み合わせたサンプリングおよび線形近似を用いて, 画素値に対する楽音線形制約を求める。
提案手法では,既存の手法よりも最大32%の検証ケースが解決されている。
論文 参考訳(メタデータ) (2024-08-23T15:02:09Z) - WANCO: Weak Adversarial Networks for Constrained Optimization problems [5.257895611010853]
まず、拡張ラグランジアン法を用いてミニマックス問題をミニマックス問題に変換する。
次に、それぞれ原始変数と双対変数を表すために、2つの(または複数の)ディープニューラルネットワークを使用します。
ニューラルネットワークのパラメータは、敵のプロセスによって訓練される。
論文 参考訳(メタデータ) (2024-07-04T05:37:48Z) - Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Solving the Dirichlet problem for the Monge-Amp\`ere equation using
neural networks [0.0]
本稿では, 深部入力凸ニューラルネットワークを用いたアンサッツを用いて, 凸一意解を求めることができることを示す。
解析の一環として,音源関数における特異性,不連続性,ノイズの影響について検討した。
本研究は,安定度に基づく数値的収束と誤差推定について検討する。
論文 参考訳(メタデータ) (2021-10-07T10:00:05Z) - De-homogenization using Convolutional Neural Networks [1.0323063834827415]
本稿では,構造コンプライアンス最小化のための深層学習に基づく非均質化手法を提案する。
パラメータの適切な選択のために、非均質化設計は、均質化に基づく解の7-25%以内で実行される。
論文 参考訳(メタデータ) (2021-05-10T09:50:06Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。