論文の概要: PDE Generalization of In-Context Operator Networks: A Study on 1D Scalar
Nonlinear Conservation Laws
- arxiv url: http://arxiv.org/abs/2401.07364v1
- Date: Sun, 14 Jan 2024 20:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 18:30:27.720865
- Title: PDE Generalization of In-Context Operator Networks: A Study on 1D Scalar
Nonlinear Conservation Laws
- Title(参考訳): インコンテキスト演算子のPDE一般化:1次元スカラー非線形保存則に関する研究
- Authors: Liu Yang, Stanley J. Osher
- Abstract要約: In-context演算子学習とそれに対応するモデル In-Context演算子ネットワークは、これらの質問の最初の探索を表している。
第二の質問に対する肯定的な答え、すなわち ICON は、微調整なしで新しい形式を持つ PDE に対してうまく一般化できることを示す。
- 参考スコア(独自算出の注目度): 15.644408281663921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can we build a single large model for a wide range of PDE-related scientific
learning tasks? Can this model generalize to new PDEs, even of new forms,
without any fine-tuning? In-context operator learning and the corresponding
model In-Context Operator Networks (ICON) [1] represent an initial exploration
of these questions. The capability of ICON regarding the first question has
been demonstrated in [1]. In this paper, we explore the second question by
investigating the generalization capabilities of ICON for conservation laws, a
family of PDEs with temporal evolution. We show the positive answer to the
second question, i.e., ICON can generalize well to some PDEs with new forms
without any fine-tuning. We also show how to broaden the range of problems that
ICON can address, by transforming functions and equations to ICON's capability
scope. We believe that the progress in this paper is a significant step towards
the goal of training a foundation model for PDE-related tasks under the
in-context operator learning framework.
- Abstract(参考訳): 幅広いPDE関連科学学習タスクのための単一大規模モデルを構築することができるか?
このモデルは、微調整なしで新しい形式であっても新しいPDEに一般化できるだろうか?
In-context operator learningとそれに対応するモデル In-Context Operator Networks (ICON) [1] はこれらの質問の最初の探索を表す。
最初の質問に関するICONの能力は[1]で実証されている。
本稿では,時間発展を持つpdesの族であるイコンの保存則に対する一般化能力について検討し,第2の質問について考察する。
第二の質問に対する正の答え、すなわち ICON は、微調整なしで新しい形式を持つ PDE に対してうまく一般化できることを示す。
また,関数や方程式をICONの機能範囲に変換することで,ICONが対処できる問題の範囲を広げる方法について述べる。
本論文の進展は,PDE関連タスクの基礎モデルを,コンテキスト内演算子学習フレームワークの下で学習するための重要なステップであると考えている。
関連論文リスト
- Self-supervised Pretraining for Partial Differential Equations [0.0]
本稿では、トランスフォーマーに基づくニューラルネットワークアーキテクチャの最近の進歩を活用し、ニューラルPDEソルバを構築するための新しいアプローチについて述べる。
我々のモデルは、ネットワークを再トレーニングすることなく、PDEパラメータの異なる値に対するソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-07-03T16:39:32Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - Physics-informed Discretization-independent Deep Compositional Operator Network [1.2430809884830318]
我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
論文 参考訳(メタデータ) (2024-04-21T12:41:30Z) - DPOT: Auto-Regressive Denoising Operator Transformer for Large-Scale PDE Pre-Training [87.90342423839876]
我々は,PDEデータに対するより安定的で効率的な事前学習を可能にする,自己回帰型事前学習戦略を提案する。
我々は,100k以上の軌道を持つ10以上のPDEデータセットに対して,最大0.5BパラメータでPDEファンデーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2024-03-06T08:38:34Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - iPINNs: Incremental learning for Physics-informed neural networks [66.4795381419701]
物理インフォームドニューラルネットワーク(PINN)は、最近偏微分方程式(PDE)を解く強力なツールとなっている。
本稿では,新しいタスクのパラメータを追加せずに連続的に複数のタスクを学習できるインクリメンタルPINNを提案する。
提案手法は,PDEごとに個別のサブネットワークを作成し,従来のサブネットワークと重なり合うようにすることで,最も単純なPDEから複数のPDEを学習する。
論文 参考訳(メタデータ) (2023-04-10T20:19:20Z) - DISCOVER: Deep identification of symbolic open-form PDEs via enhanced
reinforcement-learning [0.5156484100374059]
複素自然系の作用機構は、簡潔かつ深い偏微分方程式(PDE)によって吸収される傾向がある
本稿では,事前知識の少ない記号型オープンフォームPDEを明らかにするために,強化された強化強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-04T15:46:53Z) - Learning to Solve PDE-constrained Inverse Problems with Graph Networks [51.89325993156204]
科学と工学にまたがる多くの応用分野において、偏微分方程式(PDE)によって定義される制約で逆問題を解決することに興味がある。
ここでは、これらのPDE制約された逆問題を解決するために、GNNを探索する。
GNNを用いて計算速度を最大90倍に向上させる。
論文 参考訳(メタデータ) (2022-06-01T18:48:01Z) - Learning time-dependent PDE solver using Message Passing Graph Neural
Networks [0.0]
本稿では,メッセージパッシングモデルを用いた学習を通して,効率的なPDE解法を見つけるためのグラフニューラルネットワーク手法を提案する。
グラフを用いて、非構造化メッシュ上でPDEデータを表現し、メッセージパッシンググラフニューラルネットワーク(MPGNN)が支配方程式をパラメータ化できることを示す。
繰り返しグラフニューラルネットワークは,PDEに対する解の時間列を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-04-15T21:10:32Z) - APIK: Active Physics-Informed Kriging Model with Partial Differential
Equations [6.918364447822299]
本稿では,PDEポイントの集合を介してPDE情報を導入し,標準クリグ法と同様の後方予測を行うPDE Informed Kriging Model (PIK)を提案する。
学習性能をさらに向上させるために,PDEポイントをデザインし,PIKモデルと測定データに基づいたPDE情報を活用するアクティブPIKフレームワーク(APIK)を提案する。
論文 参考訳(メタデータ) (2020-12-22T02:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。