論文の概要: Mesh-Informed Neural Operator : A Transformer Generative Approach
- arxiv url: http://arxiv.org/abs/2506.16656v1
- Date: Fri, 20 Jun 2025 00:00:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.294625
- Title: Mesh-Informed Neural Operator : A Transformer Generative Approach
- Title(参考訳): メッシュインフォームドニューラル演算子 : 変圧器生成手法
- Authors: Yaozhong Shi, Zachary E. Ross, Domniki Asimaki, Kamyar Azizzadenesheli,
- Abstract要約: Mesh-Informed Neural Operator (MINO) は、関数空間における生成モデリングのための、原則的で、ドメインに依存しないバックボーンである。
MINOは、関数空間における生成モデリングのための原則的で、ドメインに依存しないバックボーンを提供する。
- 参考スコア(独自算出の注目度): 12.275587079383603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models in function spaces, situated at the intersection of generative modeling and operator learning, are attracting increasing attention due to their immense potential in diverse scientific and engineering applications. While functional generative models are theoretically domain- and discretization-agnostic, current implementations heavily rely on the Fourier Neural Operator (FNO), limiting their applicability to regular grids and rectangular domains. To overcome these critical limitations, we introduce the Mesh-Informed Neural Operator (MINO). By leveraging graph neural operators and cross-attention mechanisms, MINO offers a principled, domain- and discretization-agnostic backbone for generative modeling in function spaces. This advancement significantly expands the scope of such models to more diverse applications in generative, inverse, and regression tasks. Furthermore, MINO provides a unified perspective on integrating neural operators with general advanced deep learning architectures. Finally, we introduce a suite of standardized evaluation metrics that enable objective comparison of functional generative models, addressing another critical gap in the field.
- Abstract(参考訳): 生成的モデリングと演算子学習の交差点に位置する関数空間の生成モデルは、様々な科学的・工学的応用において大きな可能性を秘めているため、注目を集めている。
関数生成モデルは理論的にはドメインに依存しないが、現在の実装はフーリエニューラル演算子(FNO)に大きく依存しており、通常のグリッドや矩形ドメインに適用可能である。
これらの限界を克服するために、メッシュインフォームド・ニューラル・オペレータ(MINO)を導入する。
グラフニューラル演算子とクロスアテンション機構を活用することで、MINOは関数空間における生成モデリングのための原則付き、ドメインに依存しないバックボーンを提供する。
この進歩は、生成的、逆、回帰的タスクにおけるより多様な応用へと、そのようなモデルの範囲を大きく広げる。
さらに、MINOは、ニューラルネットワークと一般的な高度なディープラーニングアーキテクチャの統合に関する統一的な視点を提供する。
最後に、機能的生成モデルの客観的比較を可能にするための標準化された評価指標のセットを紹介し、この分野におけるもう一つの重要なギャップに対処する。
関連論文リスト
- Teaching Artificial Intelligence to Perform Rapid, Resolution-Invariant Grain Growth Modeling via Fourier Neural Operator [0.0]
ミクロ構造進化は材料の物理的、光学的、電子的性質を形成する上で重要な役割を果たしている。
伝統的な位相場モデリングはこれらの現象を正確にシミュレートするが、計算集約的である。
本研究では、フーリエニューラル演算子(FNO)を用いて、分解能不変モデリングを実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-18T11:19:08Z) - Gaussian Process Neural Additive Models [3.7969209746164325]
ランダムフーリエ特徴を用いたガウス過程の単一層ニューラルネットワーク構築を用いたニューラル付加モデル(NAM)の新たなサブクラスを提案する。
GP-NAMは凸目的関数と、特徴次元と線形に成長する訓練可能なパラメータの数が有利である。
GP-NAMは,パラメータ数を大幅に削減して,分類タスクと回帰タスクの両方において,同等あるいはより優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-19T20:29:34Z) - Wasserstein proximal operators describe score-based generative models
and resolve memorization [12.321631823103894]
We first formulate SGMs with terms of Wasserstein proximal operator (WPO)
We show that WPO describe the inductive bias of diffusion and score-based model。
本稿では,SGMの性能を劇的に向上させる,スコア関数の解釈可能なカーネルベースモデルを提案する。
論文 参考訳(メタデータ) (2024-02-09T03:33:13Z) - DDMI: Domain-Agnostic Latent Diffusion Models for Synthesizing High-Quality Implicit Neural Representations [13.357094648241839]
INRのドメインに依存しない潜在拡散モデルは、ニューラルネットワークの重みの代わりに適応的な位置埋め込みを生成する。
離散データと連続信号関数をシームレスに接続する分割連続空間変分自動エンコーダ(D2C-VAE)を開発した。
例えば、2D画像、3D形状、ニューラルラジアンスフィールド、ビデオの4つのモードにわたる実験では、7つのベンチマークデータセットがDDMIの汎用性を実証している。
論文 参考訳(メタデータ) (2024-01-23T06:21:34Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。