論文の概要: MeshONet: A Generalizable and Efficient Operator Learning Method for Structured Mesh Generation
- arxiv url: http://arxiv.org/abs/2501.11937v1
- Date: Tue, 21 Jan 2025 07:27:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:24:42.413475
- Title: MeshONet: A Generalizable and Efficient Operator Learning Method for Structured Mesh Generation
- Title(参考訳): MeshONet: 構造化メッシュ生成のための汎用的で効率的な演算子学習方法
- Authors: Jing Xiao, Xinhai Chen, Qingling Wang, Jie Liu,
- Abstract要約: MeshONetは、構造化メッシュ生成のための最初の一般化可能なインテリジェントな学習方法である。
従来の方法に比べて最大4桁の高速化を実現している。
- 参考スコア(独自算出の注目度): 14.124041386580481
- License:
- Abstract: Mesh generation plays a crucial role in scientific computing. Traditional mesh generation methods, such as TFI and PDE-based methods, often struggle to achieve a balance between efficiency and mesh quality. To address this challenge, physics-informed intelligent learning methods have recently emerged, significantly improving generation efficiency while maintaining high mesh quality. However, physics-informed methods fail to generalize when applied to previously unseen geometries, as even small changes in the boundary shape necessitate burdensome retraining to adapt to new geometric variations. In this paper, we introduce MeshONet, the first generalizable intelligent learning method for structured mesh generation. The method transforms the mesh generation task into an operator learning problem with multiple input and solution functions. To effectively overcome the multivariable mapping restriction of operator learning methods, we propose a dual-branch, shared-trunk architecture to approximate the mapping between function spaces based on input-output pairs. Experimental results show that MeshONet achieves a speedup of up to four orders of magnitude in generation efficiency over traditional methods. It also enables generalization to different geometries without retraining, greatly enhancing the practicality of intelligent methods.
- Abstract(参考訳): メッシュ生成は科学計算において重要な役割を果たす。
TFIやPDEベースの手法のような従来のメッシュ生成手法は、効率性とメッシュの品質のバランスをとるのに苦労することが多い。
この課題に対処するため、物理インフォームド・インテリジェントな学習手法が最近登場し、高いメッシュ品質を維持しながら生成効率を大幅に向上した。
しかし、物理インフォームド法は、境界形状の小さな変化でさえ、新しい幾何学的変動に適応するために重み付き再トレーニングを必要とするため、これまで見つからなかった測地に適用した場合、一般化に失敗する。
本稿では,構造化メッシュ生成のための最初の一般化可能な知的学習手法であるMeshONetを紹介する。
この方法は、メッシュ生成タスクを複数の入力および解関数を持つ演算子学習問題に変換する。
演算子学習手法の多変数写像制限を効果的に克服するために,入力-出力対に基づく関数空間間の写像を近似する二分岐共有トランクアーキテクチャを提案する。
実験の結果,MeshONetは従来の手法に比べて最大4桁の高速化を実現していることがわかった。
また、異なる測地を再訓練することなく一般化することができ、知的手法の実用性を大幅に向上させることができる。
関連論文リスト
- Synergistic Learning with Multi-Task DeepONet for Efficient PDE Problem Solving [5.692133861249929]
マルチタスク学習(MTL)は、複数のタスクから有用な情報を活用し、一般化性能を向上させるために設計された帰納的伝達機構である。
本研究では、偏微分方程式(PDE)によって支配される科学と工学の問題にMTLを適用した。
マルチタスク・ディープ・オペレーター・ネットワーク(MT-DeepONet)を用いて、PDEと複数のジオメトリの様々な関数型ソース・用語の解を同時学習セッションで学習する。
論文 参考訳(メタデータ) (2024-08-05T02:50:58Z) - Towards Universal Mesh Movement Networks [13.450178050669964]
我々はUniversal Mesh Movement Network (UM2N)を紹介する。
UM2Nは、異なるサイズ分布と構造を持つメッシュを動かすために、非侵入的ゼロショット方式で適用することができる。
本研究では, 実世界の津波シミュレーション事例とともに, 対流法とナビエ・ストークス法に基づく実例について検討した。
論文 参考訳(メタデータ) (2024-06-29T09:35:12Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Robust Analysis of Multi-Task Learning Efficiency: New Benchmarks on Light-Weighed Backbones and Effective Measurement of Multi-Task Learning Challenges by Feature Disentanglement [69.51496713076253]
本稿では,既存のMTL手法の効率性に焦点をあてる。
バックボーンを小さくしたメソッドの大規模な実験と,MetaGraspNetデータセットを新しいテストグラウンドとして実施する。
また,MTLにおける課題の新規かつ効率的な識別子として,特徴分散尺度を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - An Improved Structured Mesh Generation Method Based on Physics-informed
Neural Networks [13.196871939441273]
数値アルゴリズムがより効率的になり、コンピュータがより強力になるにつれて、メッシュ生成に費やされる時間の割合が高くなる。
本稿では,改良された構造化メッシュ生成手法を提案する。
この方法は、物理インフォームドニューラルネットワークに関連する大域的最適化問題としてメッシュ問題を定式化する。
論文 参考訳(メタデータ) (2022-10-18T02:45:14Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Efficient Feature Transformations for Discriminative and Generative
Continual Learning [98.10425163678082]
継続的学習のための簡易タスク特化機能マップ変換戦略を提案する。
これらは新しいタスクを学習するための強力な柔軟性を提供し、ベースアーキテクチャに最小パラメータを追加することで実現される。
本手法の有効性と効率を,判別(cifar-100およびimagenet-1k)および生成的タスクの一連の実験を用いて実証する。
論文 参考訳(メタデータ) (2021-03-25T01:48:14Z) - MetaGater: Fast Learning of Conditional Channel Gated Networks via
Federated Meta-Learning [46.79356071007187]
本稿では,バックボーンネットワークとチャネルゲーティングを協調的にトレーニングするための総合的なアプローチを提案する。
我々は,バックボーンネットワークとゲーティングモジュールの両方において,優れたメタ初期化を共同で学習するための,連携型メタ学習手法を開発した。
論文 参考訳(メタデータ) (2020-11-25T04:26:23Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。