論文の概要: Proposing an intelligent mesh smoothing method with graph neural
networks
- arxiv url: http://arxiv.org/abs/2311.12815v1
- Date: Sun, 24 Sep 2023 02:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:48:36.478313
- Title: Proposing an intelligent mesh smoothing method with graph neural
networks
- Title(参考訳): グラフニューラルネットワークを用いたインテリジェントメッシュ平滑化手法の提案
- Authors: Zhichao Wang, Xinhai Chen, Junjun Yan, Jie Liu
- Abstract要約: CFDでは、メッシュの平滑化法はメッシュの品質を改良し、高精度な数値シミュレーションを実現するために一般的に用いられている。
最適化ベースの平滑化は高品質なメッシュの平滑化に使用されるが、計算オーバーヘッドが大きい。
本稿では,インテリジェントメッシュ平滑化のための軽量ニューラルネットワークモデルであるGMSNetを提案する。
- 参考スコア(独自算出の注目度): 12.760458670348935
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In CFD, mesh smoothing methods are commonly utilized to refine the mesh
quality to achieve high-precision numerical simulations. Specifically,
optimization-based smoothing is used for high-quality mesh smoothing, but it
incurs significant computational overhead. Pioneer works improve its smoothing
efficiency by adopting supervised learning to learn smoothing methods from
high-quality meshes. However, they pose difficulty in smoothing the mesh nodes
with varying degrees and also need data augmentation to address the node input
sequence problem. Additionally, the required labeled high-quality meshes
further limit the applicability of the proposed method. In this paper, we
present GMSNet, a lightweight neural network model for intelligent mesh
smoothing. GMSNet adopts graph neural networks to extract features of the
node's neighbors and output the optimal node position. During smoothing, we
also introduce a fault-tolerance mechanism to prevent GMSNet from generating
negative volume elements. With a lightweight model, GMSNet can effectively
smoothing mesh nodes with varying degrees and remain unaffected by the order of
input data. A novel loss function, MetricLoss, is also developed to eliminate
the need for high-quality meshes, which provides a stable and rapid convergence
during training. We compare GMSNet with commonly used mesh smoothing methods on
two-dimensional triangle meshes. The experimental results show that GMSNet
achieves outstanding mesh smoothing performances with 5% model parameters of
the previous model, and attains 8.62 times faster than optimization-based
smoothing.
- Abstract(参考訳): CFDでは、メッシュの平滑化法はメッシュの品質を改良し、高精度な数値シミュレーションを実現するために一般的に用いられている。
具体的には、最適化ベースの平滑化は高品質なメッシュ平滑化に使用されるが、大きな計算オーバーヘッドが発生する。
Pioneerは、教師付き学習を採用して、高品質なメッシュからスムーズな方法を学ぶことで、スムーズな効率を改善する。
しかし、メッシュノードを様々な程度に平滑化することは困難であり、ノードの入力シーケンス問題に対処するためにデータ拡張が必要である。
さらに,ラベル付き高品質メッシュは,提案手法の適用性をさらに制限する。
本稿では,インテリジェントメッシュ平滑化のための軽量ニューラルネットワークモデルであるGMSNetを提案する。
gmsnetはグラフニューラルネットワークを採用し、隣接ノードの特徴を抽出し、最適なノード位置を出力する。
また, 平滑化時にGMSNetが負の体積要素を発生させないよう耐故障機構を導入する。
軽量モデルでは、gmsnetはさまざまな程度でメッシュノードを効果的に平滑化することができ、入力データの順序に影響されない。
新たな損失関数MetricLossも、トレーニング中に安定かつ迅速な収束を提供する高品質メッシュの必要性を排除するために開発された。
GMSNetと2次元三角形メッシュのメッシュ平滑化法を比較した。
実験の結果,gmsnetは,前モデルより5%のモデルパラメータでメッシュ平滑化性能が向上し,最適化に基づく平滑化よりも8.62倍高速になった。
関連論文リスト
- Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - GNNRL-Smoothing: A Prior-Free Reinforcement Learning Model for Mesh Smoothing [12.05219832216931]
メッシュ平滑化法は歪んだ要素を除去することでメッシュ品質を向上させることができ、シミュレーションの収束性を向上させる。
従来のアプローチでは、スムーズなモデルのトレーニングに教師あり学習と強化学習を採用してきた。
本稿では,インテリジェントメッシュ平滑化のための事前自由強化学習モデルを提案する。
論文 参考訳(メタデータ) (2024-10-19T13:26:52Z) - 3DMeshNet: A Three-Dimensional Differential Neural Network for Structured Mesh Generation [2.892556380266997]
本稿では,3次元メッシュ生成のための新しい3DMeshNetを提案する。
3DMeshNetは、メッシュ関連微分方程式をニューラルネットワークの損失関数に埋め込む。
ユーザが定義した四面体/ヘキサヘドラル細胞の数で、3次元構造メッシュを効率よく出力することができる。
論文 参考訳(メタデータ) (2024-05-07T13:07:07Z) - A Neural-Network-Based Approach for Loose-Fitting Clothing [2.910739621411222]
本稿では, リアルタイム数値アルゴリズムを用いて, ゆるやかな衣服の動的モードを近似する方法を示す。
また,スキンを用いて望ましいメッシュに粗い近似を再構築する。
大量のトレーニングデータを必要とするリカレントニューラルネットワークとは対照的に、QNNはトレーニングデータを大幅に少なくする。
論文 参考訳(メタデータ) (2024-04-25T05:52:20Z) - Soft Merging: A Flexible and Robust Soft Model Merging Approach for
Enhanced Neural Network Performance [6.599368083393398]
グラディエント(SGD)はしばしばモデル性能を改善するために局所最適化を収束させることに制限される。
エム・ソフト・マージング法は、望ましくない結果で得られた局所最適モデルを最小化する。
実験は、統合されたネットワークの有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-09-21T17:07:31Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Node Dependent Local Smoothing for Scalable Graph Learning [15.227749433827562]
最近の研究で、グラフニューラルネットワーク(GNN)のコアにある特徴やラベルのスムース化が明らかにされている。
ノード依存局所平滑化(NDLS)と呼ばれる新しいアルゴリズムを提案する。
NDLSは、隣接行列に基づいて影響スコアを計算し、そのスコアにしきい値を設定して繰り返し数を選択する。
論文 参考訳(メタデータ) (2021-10-27T12:24:41Z) - Mesh Draping: Parametrization-Free Neural Mesh Transfer [92.55503085245304]
Mesh Drapingは、既存のメッシュ構造をある形状から別の形状に転送するニューラルネットワークである。
我々は、徐々に増加する周波数を活用して、ニューラルネットワークの最適化を導くことにより、安定かつ高品質なメッシュ転送を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-11T17:24:52Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。