論文の概要: 3DMeshNet: A Three-Dimensional Differential Neural Network for Structured Mesh Generation
- arxiv url: http://arxiv.org/abs/2407.01560v1
- Date: Tue, 7 May 2024 13:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 22:28:39.817589
- Title: 3DMeshNet: A Three-Dimensional Differential Neural Network for Structured Mesh Generation
- Title(参考訳): 3DMeshNet:構造化メッシュ生成のための3次元微分ニューラルネットワーク
- Authors: Jiaming Peng, Xinhai Chen, Jie Liu,
- Abstract要約: 本稿では,3次元メッシュ生成のための新しい3DMeshNetを提案する。
3DMeshNetは、メッシュ関連微分方程式をニューラルネットワークの損失関数に埋め込む。
ユーザが定義した四面体/ヘキサヘドラル細胞の数で、3次元構造メッシュを効率よく出力することができる。
- 参考スコア(独自算出の注目度): 2.892556380266997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mesh generation is a crucial step in numerical simulations, significantly impacting simulation accuracy and efficiency. However, generating meshes remains time-consuming and requires expensive computational resources. In this paper, we propose a novel method, 3DMeshNet, for three-dimensional structured mesh generation. The method embeds the meshing-related differential equations into the loss function of neural networks, formulating the meshing task as an unsupervised optimization problem. It takes geometric points as input to learn the potential mapping between parametric and computational domains. After suitable offline training, 3DMeshNet can efficiently output a three-dimensional structured mesh with a user-defined number of quadrilateral/hexahedral cells through the feed-forward neural prediction. To enhance training stability and accelerate convergence, we integrate loss function reweighting through weight adjustments and gradient projection alongside applying finite difference methods to streamline derivative computations in the loss. Experiments on different cases show that 3DMeshNet is robust and fast. It outperforms neural network-based methods and yields superior meshes compared to traditional mesh partitioning methods. 3DMeshNet significantly reduces training times by up to 85% compared to other neural network-based approaches and lowers meshing overhead by 4 to 8 times relative to traditional meshing methods.
- Abstract(参考訳): メッシュ生成は数値シミュレーションにおいて重要なステップであり、シミュレーションの精度と効率に大きな影響を及ぼす。
しかし、メッシュの生成には時間を要するため、高価な計算リソースが必要になる。
本稿では,3次元メッシュ生成のための新しい手法である3DMeshNetを提案する。
この方法は、メッシュ処理に関連する微分方程式をニューラルネットワークの損失関数に埋め込んで、メッシュ処理を教師なし最適化問題として定式化する。
幾何学的点を入力として、パラメトリック領域と計算領域の間のポテンシャルマッピングを学習する。
適切なオフライントレーニングの後、3DMeshNetは、フィードフォワード神経予測を通じて、ユーザが定義した四角形/ヘキサヘドラル細胞の数で、3次元の構造化メッシュを効率的に出力することができる。
トレーニングの安定性を高め,収束を加速するために,損失関数の重み付けと勾配投影を併用し,損失の導関数計算の合理化に有限差分法を適用した。
異なるケースでの実験では、3DMeshNetは堅牢で高速である。
ニューラルネットワークベースの手法よりも優れており、従来のメッシュパーティショニング手法よりも優れたメッシュが得られる。
3DMeshNetは、他のニューラルネットワークベースのアプローチと比較してトレーニング時間を最大85%削減し、従来のメッシュ方式と比較してメッシュオーバーヘッドを4~8倍削減する。
関連論文リスト
- Concurrent Training and Layer Pruning of Deep Neural Networks [0.0]
トレーニングの初期段階において、ニューラルネットワークの無関係な層を特定し、排除できるアルゴリズムを提案する。
本研究では,非線形区間を切断した後にネットワークを流れる情報の流れを,非線形ネットワーク区間の周囲の残差接続を用いた構造を用いる。
論文 参考訳(メタデータ) (2024-06-06T23:19:57Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - An Improved Structured Mesh Generation Method Based on Physics-informed
Neural Networks [13.196871939441273]
数値アルゴリズムがより効率的になり、コンピュータがより強力になるにつれて、メッシュ生成に費やされる時間の割合が高くなる。
本稿では,改良された構造化メッシュ生成手法を提案する。
この方法は、物理インフォームドニューラルネットワークに関連する大域的最適化問題としてメッシュ問題を定式化する。
論文 参考訳(メタデータ) (2022-10-18T02:45:14Z) - NeuralMeshing: Differentiable Meshing of Implicit Neural Representations [63.18340058854517]
ニューラルな暗黙表現から表面メッシュを抽出する新しい微分可能なメッシュアルゴリズムを提案する。
本手法は,通常のテッセルレーションパターンと,既存の手法に比べて三角形面の少ないメッシュを生成する。
論文 参考訳(メタデータ) (2022-10-05T16:52:25Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - $S^3$: Sign-Sparse-Shift Reparametrization for Effective Training of
Low-bit Shift Networks [41.54155265996312]
シフトニューラルネットワークは、高価な乗算演算を除去し、連続的な重みを低ビットの離散値に量子化することによって複雑さを低減する。
提案手法は、シフトニューラルネットワークの境界を押し上げ、3ビットシフトネットワークは、ImageNet上でトップ1の精度で、フル精度のニューラルネットワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-07T19:33:02Z) - Hessian Aware Quantization of Spiking Neural Networks [1.90365714903665]
ニューロモルフィックアーキテクチャは、可変ビット精度と局所ビット精度の大規模並列計算を可能にする。
SNNトレーニングの現在の勾配に基づく方法は、複数の状態変数を持つ複雑なニューロンモデルを使用する。
我々は、勾配に基づくトレーニングと互換性を保ちつつ、状態変数の数を4倍に削減する単純化されたニューロンモデルを提案する。
論文 参考訳(メタデータ) (2021-04-29T05:27:34Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。