論文の概要: Structure-Preserving Operator Learning
- arxiv url: http://arxiv.org/abs/2410.01065v1
- Date: Tue, 1 Oct 2024 20:46:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 23:30:27.748032
- Title: Structure-Preserving Operator Learning
- Title(参考訳): 構造保存演算子学習
- Authors: Nacime Bouziani, Nicolas Boullé,
- Abstract要約: 我々は、演算子学習アーキテクチャ、構造保存演算子ネットワーク(SPON)のファミリーを紹介する。
SPONは入力出力空間の有限要素の離散化を利用して連続系の重要な数学的および物理的性質を保存する。
我々はSPONアーキテクチャの設計とトレーニングを自動化するソフトウェアをリリースする。
- 参考スコア(独自算出の注目度): 4.765143789184956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning complex dynamics driven by partial differential equations directly from data holds great promise for fast and accurate simulations of complex physical systems. In most cases, this problem can be formulated as an operator learning task, where one aims to learn the operator representing the physics of interest, which entails discretization of the continuous system. However, preserving key continuous properties at the discrete level, such as boundary conditions, and addressing physical systems with complex geometries is challenging for most existing approaches. We introduce a family of operator learning architectures, structure-preserving operator networks (SPONs), that allows to preserve key mathematical and physical properties of the continuous system by leveraging finite element (FE) discretizations of the input-output spaces. SPONs are encode-process-decode architectures that are end-to-end differentiable, where the encoder and decoder follows from the discretizations of the input-output spaces. SPONs can operate on complex geometries, enforce certain boundary conditions exactly, and offer theoretical guarantees. Our framework provides a flexible way of devising structure-preserving architectures tailored to specific applications, and offers an explicit trade-off between performance and efficiency, all thanks to the FE discretization of the input-output spaces. Additionally, we introduce a multigrid-inspired SPON architecture that yields improved performance at higher efficiency. Finally, we release a software to automate the design and training of SPON architectures.
- Abstract(参考訳): データから直接偏微分方程式によって駆動される複素力学を学習することは、複雑な物理系の高速かつ正確なシミュレーションに大いに期待できる。
ほとんどの場合、この問題は演算子学習タスクとして定式化することができ、連続系の離散化を伴う興味の物理を表現する演算子を学習することを目的としている。
しかし、境界条件のような離散的なレベルで鍵的連続性を保ち、複雑なジオメトリーを持つ物理系に対処することは、既存のほとんどのアプローチでは困難である。
入力出力空間の有限要素(FE)離散化を利用して、連続系の重要な数学的・物理的特性を維持できる演算子学習アーキテクチャ群、構造保存演算子ネットワーク(SPON)を導入する。
SPONは、エンコーダとデコーダが入力出力空間の離散化から従うエンド・ツー・エンドの微分可能なエンコード・プロセス・デコーダアーキテクチャである。
SPONは複雑なジオメトリー上で動作し、特定の境界条件を正確に適用し、理論的な保証を提供する。
我々のフレームワークは、特定のアプリケーションに適した構造保存アーキテクチャを設計するための柔軟な方法を提供する。
さらに,マルチグリッド型SPONアーキテクチャを導入し,高い効率で性能を向上する。
最後に,SPONアーキテクチャの設計とトレーニングを自動化するソフトウェアをリリースする。
関連論文リスト
- AsCAN: Asymmetric Convolution-Attention Networks for Efficient Recognition and Generation [48.82264764771652]
本稿では,畳み込みブロックと変圧器ブロックを組み合わせたハイブリッドアーキテクチャAsCANを紹介する。
AsCANは、認識、セグメンテーション、クラス条件画像生成など、さまざまなタスクをサポートしている。
次に、同じアーキテクチャをスケールして、大規模なテキスト・イメージタスクを解決し、最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-07T18:43:17Z) - Learning local equivariant representations for quantum operators [7.747597014044332]
本稿では,複数の量子演算子を予測するための新しいディープラーニングモデルSLEMを提案する。
SLEMは、計算効率を劇的に改善しながら最先端の精度を達成する。
SLEMの能力は多種多様な2次元および3次元材料にまたがって実証し,限られた訓練データでも高い精度を達成できることを示した。
論文 参考訳(メタデータ) (2024-07-08T15:55:12Z) - Scaling physics-informed hard constraints with mixture-of-experts [0.0]
我々は、Mixture-of-Experts (MoE) を用いて、ハード物理制約を強制するためのスケーラブルなアプローチを開発する。
MoEは小さなドメインに対する制約を課し、それぞれが微分可能な最適化によって"専門家"によって解決される。
標準的な微分可能最適化と比較して、我々のスケーラブルなアプローチは、ニューラルPDEソルバ設定においてより精度が高い。
論文 参考訳(メタデータ) (2024-02-20T22:45:00Z) - Inducing Point Operator Transformer: A Flexible and Scalable
Architecture for Solving PDEs [7.152311859951986]
誘導点演算子変換器(IPOT)と呼ばれる注意モデルを導入する。
IPOTは、グローバルなインタラクションを計算的に効率的な方法でキャプチャしながら、任意の入力関数と出力クエリを処理するように設計されている。
IPOTは、プロセッサからのインプット/アウトプットの離散化を遅延ボトルネックより小さくすることで、任意の離散化を処理する柔軟性を提供する。
論文 参考訳(メタデータ) (2023-12-18T06:57:31Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - CR-LSO: Convex Neural Architecture Optimization in the Latent Space of
Graph Variational Autoencoder with Input Convex Neural Networks [7.910915721525413]
潜時空間最適化(LSO)に基づくニューラルアーキテクチャ探索(NAS)法では、離散的ニューラルアーキテクチャを連続潜時空間に埋め込むために深層生成モデルを訓練する。
本稿では,空間の学習過程を正規化することを目的とした凸性アーキテクチャ正規化空間(CRLSO)法について述べる。
3つのNASベンチマークによる実験結果から,CR-LSOは計算複雑性と性能の両面で競合評価結果が得られることが示された。
論文 参考訳(メタデータ) (2022-11-11T01:55:11Z) - Spatio-Temporal Representation Factorization for Video-based Person
Re-Identification [55.01276167336187]
本稿では、re-IDのための時空間表現分解モジュール(STRF)を提案する。
STRFはフレキシブルな新しい計算ユニットであり、re-IDのための既存のほとんどの3D畳み込みニューラルネットワークアーキテクチャと併用することができる。
実験により、STRFは様々なベースラインアーキテクチャの性能を向上し、新しい最先端の成果を示す。
論文 参考訳(メタデータ) (2021-07-25T19:29:37Z) - Discrete-Valued Neural Communication [85.3675647398994]
コンポーネント間で伝達される情報を離散表現に制限することは、有益なボトルネックであることを示す。
個人は「猫」が特定の経験に基づいて何であるかについて異なる理解を持っているが、共有された離散トークンは、個人間のコミュニケーションが内部表現の個人差によって切り離されることを可能にする。
我々は、量子化機構をベクトル量子化変分オートコーダから共有符号ブックによる多頭部離散化に拡張し、離散値ニューラル通信に利用する。
論文 参考訳(メタデータ) (2021-07-06T03:09:25Z) - Neural Architecture Optimization with Graph VAE [21.126140965779534]
連続空間におけるネットワークアーキテクチャを最適化するための効率的なNAS手法を提案する。
フレームワークは、エンコーダ、パフォーマンス予測器、複雑性予測器、デコーダの4つのコンポーネントを共同で学習する。
論文 参考訳(メタデータ) (2020-06-18T07:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。