論文の概要: Error-Correcting Neural Networks for Two-Dimensional Curvature
Computation in the Level-Set Method
- arxiv url: http://arxiv.org/abs/2201.12342v1
- Date: Sat, 22 Jan 2022 05:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-06 10:42:36.463704
- Title: Error-Correcting Neural Networks for Two-Dimensional Curvature
Computation in the Level-Set Method
- Title(参考訳): レベルセット法による2次元曲率計算のための誤差補正ニューラルネットワーク
- Authors: Luis \'Angel Larios-C\'ardenas and Fr\'ed\'eric Gibou
- Abstract要約: 本稿では,2次元曲率をレベルセット法で近似するための誤差ニューラルモデルに基づく手法を提案する。
我々の主な貢献は、需要に応じて機械学習操作を可能にする数値スキームに依存する、再設計されたハイブリッド・ソルバである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an error-neural-modeling-based strategy for approximating
two-dimensional curvature in the level-set method. Our main contribution is a
redesigned hybrid solver (Larios-C\'{a}rdenas and Gibou (2021)[1]) that relies
on numerical schemes to enable machine-learning operations on demand. In
particular, our routine features double predicting to harness curvature
symmetry invariance in favor of precision and stability. As in [1], the core of
this solver is a multilayer perceptron trained on circular- and
sinusoidal-interface samples. Its role is to quantify the error in numerical
curvature approximations and emit corrected estimates for select grid vertices
along the free boundary. These corrections arise in response to preprocessed
context level-set, curvature, and gradient data. To promote neural capacity, we
have adopted sample negative-curvature normalization, reorientation, and
reflection-based augmentation. In the same manner, our system incorporates
dimensionality reduction, well-balancedness, and regularization to minimize
outlying effects. Our training approach is likewise scalable across mesh sizes.
For this purpose, we have introduced dimensionless parametrization and
probabilistic subsampling during data production. Together, all these elements
have improved the accuracy and efficiency of curvature calculations around
under-resolved regions. In most experiments, our strategy has outperformed the
numerical baseline at twice the number of redistancing steps while requiring
only a fraction of the cost.
- Abstract(参考訳): レベルセット法において2次元曲率を近似するための誤差ニューラルモデルに基づく戦略を提案する。
我々の主な貢献は、需要に応じて機械学習操作を可能にする数値スキームに依存する、再設計されたハイブリッドソルバ (Larios-C\'{a}rdenas and Gibou (2021)[1]) である。
特に,本手法では,曲率対称性の不変性を利用して精度と安定性を2倍に予測する。
[1] と同様に、この解法のコアは円形および正弦波界面サンプルで訓練された多層パーセプトロンである。
その役割は、数値曲率近似における誤差の定量化と、自由境界に沿った選択格子頂点に対する補正された推定を出力することである。
これらの補正は、事前処理されたコンテキストレベルセット、曲率、勾配データに対応する。
ニューラルキャパシティを促進するために,サンプルの負曲率正規化,再向き付け,リフレクションに基づく強化を行った。
同様に、我々のシステムは、アウトライジング効果を最小限に抑えるために、次元減少、バランスよく、正規化を取り入れている。
私たちのトレーニングアプローチも、メッシュサイズにわたってスケーラブルです。
この目的のために,データ生産中に無次元パラメトリゼーションと確率的サブサンプリングを導入した。
これらの要素は共に、未解決領域の曲率計算の精度と効率を改善した。
多くの実験において、我々の戦略は数値ベースラインの2倍の段数で性能を向上し、コストのごく一部しか必要としていない。
関連論文リスト
- Trust-Region Sequential Quadratic Programming for Stochastic Optimization with Random Models [57.52124921268249]
本稿では,1次と2次の両方の定常点を見つけるための信頼逐次準計画法を提案する。
本手法は, 1次定常点に収束するため, 対象対象の近似を最小化して定義された各イテレーションの勾配ステップを計算する。
2階定常点に収束するため,本手法は負曲率を減少するヘッセン行列を探索する固有ステップも計算する。
論文 参考訳(メタデータ) (2024-09-24T04:39:47Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - Machine learning algorithms for three-dimensional mean-curvature
computation in the level-set method [0.0]
レベルセット法のためのデータ駆動平均曲率解法を提案する。
提案方式は, 現在の粒子界面再構成よりも高精度な平均曲率推定を行うことができる。
論文 参考訳(メタデータ) (2022-08-18T20:19:22Z) - Level-Set Curvature Neural Networks: A Hybrid Approach [0.0]
レベルセット法で平均曲率を計算するための深層学習に基づくハイブリッド戦略を提案する。
提案手法は,改良回帰モデルの辞書と標準数値スキームを組み合わせて,曲率をより正確に推定する。
機械学習は、レベルセット手法の数値的欠点に対する実行可能な解決策を考案する有望な場であることを確認した。
論文 参考訳(メタデータ) (2021-04-07T06:51:52Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Learning Rates as a Function of Batch Size: A Random Matrix Theory
Approach to Neural Network Training [2.9649783577150837]
スパイクされたフィールド依存ランダム行列理論を用いて, ニューラルネットの損失景観に及ぼすミニバッチの影響について検討した。
我々は、スムーズで非ニュートンディープニューラルネットワークのための最大降下および適応訓練規則の解析式を導出する。
VGG/ResNetおよびImageNetデータセットのクレームを検証する。
論文 参考訳(メタデータ) (2020-06-16T11:55:45Z) - Implicit Bias of Gradient Descent for Mean Squared Error Regression with
Two-Layer Wide Neural Networks [1.3706331473063877]
幅$n$浅いReLUネットワークをトレーニングする解は、トレーニングデータに適合する関数の$n-1/2$以内であることを示す。
また, トレーニング軌道はスムーズなスプラインの軌道によって捕捉され, 正規化強度は低下することを示した。
論文 参考訳(メタデータ) (2020-06-12T17:46:40Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z) - A deep learning approach for the computation of curvature in the
level-set method [0.0]
そこで本研究では,2次元暗黙曲線の平均曲率をレベルセット法で推定する手法を提案する。
我々のアプローチは、様々な解像度の均一な格子に没入した円柱から構築された合成データセットにフィードフォワードニューラルネットワークを適合させることに基づいている。
論文 参考訳(メタデータ) (2020-02-04T00:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。