論文の概要: SetONet: A Deep Set-based Operator Network for Solving PDEs with permutation invariant variable input sampling
- arxiv url: http://arxiv.org/abs/2505.04738v1
- Date: Wed, 07 May 2025 18:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.646031
- Title: SetONet: A Deep Set-based Operator Network for Solving PDEs with permutation invariant variable input sampling
- Title(参考訳): SetONet: 置換不変可変入力サンプリングによるPDEを解くためのディープセットベースの演算子ネットワーク
- Authors: Stepan Tretiakov, Xingjian Li, Krishna Kumar,
- Abstract要約: 我々は、Deep Setsの原則をDeepONetフレームワークに統合する新しいアーキテクチャであるSetONet(SetONet)を紹介します。
中心となるイノベーションはSetONetブランチネットワークにあり、これは入力関数を位置値対の非順序のアンフセットとして処理する。
本稿では, 微分・反微分演算子, 1次元ダーシー流, 2次元弾性などのベンチマーク問題に対して, SetONetの有効性を示す。
- 参考スコア(独自算出の注目度): 2.95983424663256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators, particularly the Deep Operator Network (DeepONet), have shown promise in learning mappings between function spaces for solving differential equations. However, standard DeepONet requires input functions to be sampled at fixed locations, limiting its applicability in scenarios with variable sensor configurations, missing data, or irregular grids. We introduce the Set Operator Network (SetONet), a novel architecture that integrates Deep Sets principles into the DeepONet framework to address this limitation. The core innovation lies in the SetONet branch network, which processes the input function as an unordered \emph{set} of location-value pairs. This design ensures permutation invariance with respect to the input points, making SetONet inherently robust to variations in the number and locations of sensors. SetONet learns richer, spatially-aware input representations by explicitly processing spatial coordinates and function values. We demonstrate SetONet's effectiveness on several benchmark problems, including derivative/anti-derivative operators, 1D Darcy flow, and 2D elasticity. Results show that SetONet successfully learns operators under variable input sampling conditions where standard DeepONet fails. Furthermore, SetONet is architecturally robust to sensor drop-off; unlike standard DeepONet, which requires methods like interpolation to function with missing data. Notably, SetONet can achieve comparable or improved accuracy over DeepONet on fixed grids, particularly for nonlinear problems, likely due to its enhanced input representation. SetONet provides a flexible and robust extension to the neural operator toolkit, significantly broadening the applicability of operator learning to problems with variable or incomplete input data.
- Abstract(参考訳): ニューラル演算子、特にディープ演算子ネットワーク(DeepONet)は、微分方程式を解くために関数空間間の写像を学習することを約束している。
しかし、標準のDeepONetでは、入力関数を固定された場所でサンプリングする必要がある。
我々は、Deep Setsの原則をDeepONetフレームワークに統合し、この制限に対処する新しいアーキテクチャであるSetONet(SetONet)を紹介します。
中心となるイノベーションはSetONetブランチネットワークにあり、これは入力関数を位置値対の非順序付き \emph{set} として処理する。
この設計により、入力点に対する置換不変性が保証され、SetONetは本質的にセンサーの数や位置の変動に対して堅牢である。
SetONetは空間座標と関数値を明示的に処理することで、よりリッチで空間的に認識された入力表現を学習する。
本稿では, 微分・反微分演算子, 1次元ダーシー流, 2次元弾性などのベンチマーク問題に対して, SetONetの有効性を示す。
その結果、SetONetは標準のDeepONetが失敗する可変入力サンプリング条件下で演算子をうまく学習していることがわかった。
さらに、SetONetは、標準のDeepONetとは異なり、センサーのドロップオフに対してアーキテクチャ的に堅牢である。
特に、SetONetは、固定グリッド上のDeepONetと同等または改善された精度を達成することができる。
SetONetは、ニューラルネットワークツールキットへの柔軟で堅牢な拡張を提供し、可変または不完全入力データの問題に対する演算子学習の適用性を大幅に拡大する。
関連論文リスト
- A Resolution Independent Neural Operator [0.0]
任意のセンサ位置とカウントを持つ入力出力データから演算子を学習するための一般的なフレームワークを提案する。
暗黙的ニューラル表現としてパラメータ化された連続基底関数を適応的に学習する2つの辞書学習アルゴリズムを提案する。
これらの基底関数は入力関数データを有限次元の埋め込み空間に投影し、アーキテクチャ上の変更なしにDeepONetと互換性を持つ。
論文 参考訳(メタデータ) (2024-07-17T21:03:21Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - On the Forward Invariance of Neural ODEs [92.07281135902922]
本稿では,ニューラル常微分方程式(ODE)が出力仕様を満たすことを保証するための新しい手法を提案する。
提案手法では,出力仕様を学習システムのパラメータや入力の制約に変換するために,制御障壁関数のクラスを用いる。
論文 参考訳(メタデータ) (2022-10-10T15:18:28Z) - Variationally Mimetic Operator Networks [1.7667202894248826]
本研究は, 近似変分あるいは弱定式化から得られる数値解の形式を模倣した, 演算子ネットワークのための新しいアーキテクチャについて述べる。
これらのアイデアの汎用楕円型PDEへの応用は、変動緩和作用素ネットワーク(VarMiON)につながる。
VarMiONソリューションにおけるエラーの分析では、トレーニングデータにおけるエラー、トレーニングエラー、入力および出力関数における二次誤差、およびトレーニングデータセットにおけるテスト入力関数と最も近い関数の間の距離を測定する"カバレッジエラー"が含まれていることが明らかになった。
論文 参考訳(メタデータ) (2022-09-26T17:39:53Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。