論文の概要: NUNO: A General Framework for Learning Parametric PDEs with Non-Uniform
Data
- arxiv url: http://arxiv.org/abs/2305.18694v1
- Date: Tue, 30 May 2023 02:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 18:49:06.776994
- Title: NUNO: A General Framework for Learning Parametric PDEs with Non-Uniform
Data
- Title(参考訳): NUNO:不均一データを用いたパラメトリックPDE学習のための汎用フレームワーク
- Authors: Songming Liu, Zhongkai Hao, Chengyang Ying, Hang Su, Ze Cheng, Jun Zhu
- Abstract要約: 非統一データを用いた効率的な演算子学習のためのNon-Uniform Operator (NUNO) フレームワークを提案する。
非一様データを一様格子に変換し,誤差を効果的に制御し,非一様データの速度と精度を並列化する。
私たちのフレームワークでは、エラー率を最大60%削減し、トレーニング速度を2倍から30倍に向上しています。
- 参考スコア(独自算出の注目度): 25.52271761404213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The neural operator has emerged as a powerful tool in learning mappings
between function spaces in PDEs. However, when faced with real-world physical
data, which are often highly non-uniformly distributed, it is challenging to
use mesh-based techniques such as the FFT. To address this, we introduce the
Non-Uniform Neural Operator (NUNO), a comprehensive framework designed for
efficient operator learning with non-uniform data. Leveraging a K-D tree-based
domain decomposition, we transform non-uniform data into uniform grids while
effectively controlling interpolation error, thereby paralleling the speed and
accuracy of learning from non-uniform data. We conduct extensive experiments on
2D elasticity, (2+1)D channel flow, and a 3D multi-physics heatsink, which, to
our knowledge, marks a novel exploration into 3D PDE problems with complex
geometries. Our framework has reduced error rates by up to 60% and enhanced
training speeds by 2x to 30x. The code is now available at
https://github.com/thu-ml/NUNO.
- Abstract(参考訳): ニューラル演算子は、PDEにおける関数空間間のマッピングを学習するための強力なツールとして登場した。
しかし,非均一に分散されることが多い実世界の物理データに直面すると,fftのようなメッシュベースの技術を使うことは困難である。
そこで我々は,非一様データを用いた効率的な演算子学習を目的とした包括的フレームワークであるNon-Uniform Neural Operator (NUNO)を紹介する。
k-d木に基づく領域分割を利用して, 補間誤差を効果的に制御しながら, 非一様データを一様格子に変換し, 非一様データから学習する速度と精度を並列化する。
2次元弾性, (2+1)dチャネルフロー, 3次元マルチフィジカルヒートシンクに関する広範な実験を行い, 複雑なジオメトリを持つ3次元pde問題に対する新たな探索を行った。
我々のフレームワークはエラー率を最大60%削減し、トレーニング速度を2倍から30倍向上させた。
コードはhttps://github.com/thu-ml/NUNOで公開されている。
関連論文リスト
- Separable Operator Networks [4.688862638563124]
演算子学習は、偏微分方程式(PDE)によって支配される複雑な物理系をモデル化するための機械学習の強力なツールとなった
本稿では,物理インフォームド演算子の学習効率を大幅に向上させる新しいフレームワークであるSepONetを紹介した。
SepONetは独立したトランクネットワークを使用して、異なる座標軸の基底関数を個別に学習する。
論文 参考訳(メタデータ) (2024-07-15T21:43:41Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - Separable Physics-Informed Neural Networks [6.439575695132489]
PINNのためのネットワークアーキテクチャとトレーニングアルゴリズムを提案する。
SPINNは、多次元PDEにおけるネットワーク伝播数を著しく削減するために、軸単位で動作している。
そこで, SPINN は, 2+1-d Navier-Stokes 方程式を, より高速に解けることを示す。
論文 参考訳(メタデータ) (2023-06-28T07:11:39Z) - Fast-SNARF: A Fast Deformer for Articulated Neural Fields [92.68788512596254]
本稿では,標準空間とポーズ空間の正確な対応性を求める,ニューラルフィールドのための新しい調音モジュールFast-SNARFを提案する。
Fast-SNARFはこれまでの研究であるSNARFの代替であり、計算効率は大幅に向上した。
変形マップの学習は多くの3次元人間のアバター法において重要な要素であるため、この研究は3次元仮想人間の実現に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-11-28T17:55:34Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Fourier Neural Operator with Learned Deformations for PDEs on General Geometries [75.91055304134258]
我々は任意の測地上でPDEを解決するための新しいフレームワーク、viz.、geo-FNOを提案する。
Geo-FNO は入力(物理)領域を不規則で、一様格子を持つ潜在空間に変形させることを学ぶ。
我々は, 弾性, 塑性, オイラー方程式, ナビエ・ストークス方程式などの多種多様なPDEと, 前方モデリングと逆設計の問題を考察する。
論文 参考訳(メタデータ) (2022-07-11T21:55:47Z) - Towards Large-Scale Learned Solvers for Parametric PDEs with
Model-Parallel Fourier Neural Operators [3.0384874162715856]
フーリエニューラル演算子(フーリエニューラル演算子、FNO)は、偏微分方程式の解演算子を学習するためのニューラルネットワークアーキテクチャである。
入力データとネットワーク重みのドメイン分割に基づくFNOのモデル並列バージョンを提案する。
我々はモデル並列FNOが320億以上の変数の時間変化PDE解を予測できることを実証した。
論文 参考訳(メタデータ) (2022-04-04T02:12:03Z) - A Discontinuity Capturing Shallow Neural Network for Elliptic Interface
Problems [0.0]
連続関数を$d$次元で近似し,楕円型インタフェース問題を解くための不連続キャプチャ・シャローニューラルネットワーク(DCSNN)を開発した。
DCSNNモデルは、トレーニングが必要なパラメータの適度な数だけのために、比較的に効率的である。
論文 参考訳(メタデータ) (2021-06-10T08:40:30Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。