論文の概要: Proposing an intelligent mesh smoothing method with graph neural
networks
- arxiv url: http://arxiv.org/abs/2311.12815v1
- Date: Sun, 24 Sep 2023 02:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:48:36.478313
- Title: Proposing an intelligent mesh smoothing method with graph neural
networks
- Title(参考訳): グラフニューラルネットワークを用いたインテリジェントメッシュ平滑化手法の提案
- Authors: Zhichao Wang, Xinhai Chen, Junjun Yan, Jie Liu
- Abstract要約: CFDでは、メッシュの平滑化法はメッシュの品質を改良し、高精度な数値シミュレーションを実現するために一般的に用いられている。
最適化ベースの平滑化は高品質なメッシュの平滑化に使用されるが、計算オーバーヘッドが大きい。
本稿では,インテリジェントメッシュ平滑化のための軽量ニューラルネットワークモデルであるGMSNetを提案する。
- 参考スコア(独自算出の注目度): 12.760458670348935
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In CFD, mesh smoothing methods are commonly utilized to refine the mesh
quality to achieve high-precision numerical simulations. Specifically,
optimization-based smoothing is used for high-quality mesh smoothing, but it
incurs significant computational overhead. Pioneer works improve its smoothing
efficiency by adopting supervised learning to learn smoothing methods from
high-quality meshes. However, they pose difficulty in smoothing the mesh nodes
with varying degrees and also need data augmentation to address the node input
sequence problem. Additionally, the required labeled high-quality meshes
further limit the applicability of the proposed method. In this paper, we
present GMSNet, a lightweight neural network model for intelligent mesh
smoothing. GMSNet adopts graph neural networks to extract features of the
node's neighbors and output the optimal node position. During smoothing, we
also introduce a fault-tolerance mechanism to prevent GMSNet from generating
negative volume elements. With a lightweight model, GMSNet can effectively
smoothing mesh nodes with varying degrees and remain unaffected by the order of
input data. A novel loss function, MetricLoss, is also developed to eliminate
the need for high-quality meshes, which provides a stable and rapid convergence
during training. We compare GMSNet with commonly used mesh smoothing methods on
two-dimensional triangle meshes. The experimental results show that GMSNet
achieves outstanding mesh smoothing performances with 5% model parameters of
the previous model, and attains 8.62 times faster than optimization-based
smoothing.
- Abstract(参考訳): CFDでは、メッシュの平滑化法はメッシュの品質を改良し、高精度な数値シミュレーションを実現するために一般的に用いられている。
具体的には、最適化ベースの平滑化は高品質なメッシュ平滑化に使用されるが、大きな計算オーバーヘッドが発生する。
Pioneerは、教師付き学習を採用して、高品質なメッシュからスムーズな方法を学ぶことで、スムーズな効率を改善する。
しかし、メッシュノードを様々な程度に平滑化することは困難であり、ノードの入力シーケンス問題に対処するためにデータ拡張が必要である。
さらに,ラベル付き高品質メッシュは,提案手法の適用性をさらに制限する。
本稿では,インテリジェントメッシュ平滑化のための軽量ニューラルネットワークモデルであるGMSNetを提案する。
gmsnetはグラフニューラルネットワークを採用し、隣接ノードの特徴を抽出し、最適なノード位置を出力する。
また, 平滑化時にGMSNetが負の体積要素を発生させないよう耐故障機構を導入する。
軽量モデルでは、gmsnetはさまざまな程度でメッシュノードを効果的に平滑化することができ、入力データの順序に影響されない。
新たな損失関数MetricLossも、トレーニング中に安定かつ迅速な収束を提供する高品質メッシュの必要性を排除するために開発された。
GMSNetと2次元三角形メッシュのメッシュ平滑化法を比較した。
実験の結果,gmsnetは,前モデルより5%のモデルパラメータでメッシュ平滑化性能が向上し,最適化に基づく平滑化よりも8.62倍高速になった。
関連論文リスト
- Soft Merging: A Flexible and Robust Soft Model Merging Approach for
Enhanced Neural Network Performance [6.599368083393398]
グラディエント(SGD)はしばしばモデル性能を改善するために局所最適化を収束させることに制限される。
エム・ソフト・マージング法は、望ましくない結果で得られた局所最適モデルを最小化する。
実験は、統合されたネットワークの有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-09-21T17:07:31Z) - An Improved Structured Mesh Generation Method Based on Physics-informed
Neural Networks [13.196871939441273]
数値アルゴリズムがより効率的になり、コンピュータがより強力になるにつれて、メッシュ生成に費やされる時間の割合が高くなる。
本稿では,改良された構造化メッシュ生成手法を提案する。
この方法は、物理インフォームドニューラルネットワークに関連する大域的最適化問題としてメッシュ問題を定式化する。
論文 参考訳(メタデータ) (2022-10-18T02:45:14Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Node Dependent Local Smoothing for Scalable Graph Learning [15.227749433827562]
最近の研究で、グラフニューラルネットワーク(GNN)のコアにある特徴やラベルのスムース化が明らかにされている。
ノード依存局所平滑化(NDLS)と呼ばれる新しいアルゴリズムを提案する。
NDLSは、隣接行列に基づいて影響スコアを計算し、そのスコアにしきい値を設定して繰り返し数を選択する。
論文 参考訳(メタデータ) (2021-10-27T12:24:41Z) - Mesh Draping: Parametrization-Free Neural Mesh Transfer [92.55503085245304]
Mesh Drapingは、既存のメッシュ構造をある形状から別の形状に転送するニューラルネットワークである。
我々は、徐々に増加する周波数を活用して、ニューラルネットワークの最適化を導くことにより、安定かつ高品質なメッシュ転送を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-11T17:24:52Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Learning optimal multigrid smoothers via neural networks [1.9336815376402723]
畳み込みニューラルネットワーク(CNN)による演算子ステンシルから最適化されたスムーナを学習するための効率的なフレームワークを提案する。
CNNは、多重グリッド収束理論から導かれる教師付き損失関数に基づいて、与えられた種類のPDEから小さな問題を訓練する。
異方性回転ラプラシアン問題に対する数値解は, 従来の手作り緩和法と比較して収束率と解時間の向上を示した。
論文 参考訳(メタデータ) (2021-02-24T05:02:54Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。