論文の概要: Deep Operator Networks for Surrogate Modeling of Cyclic Adsorption Processes with Varying Initial Conditions
- arxiv url: http://arxiv.org/abs/2601.09491v1
- Date: Wed, 14 Jan 2026 13:56:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.417686
- Title: Deep Operator Networks for Surrogate Modeling of Cyclic Adsorption Processes with Varying Initial Conditions
- Title(参考訳): 変速初期条件付き循環吸着プロセスのサロゲートモデリングのための深部演算子ネットワーク
- Authors: Beatrice Ceccanti, Mattia Galanti, Ivo Roghair, Martin van Sint Annaland,
- Abstract要約: 偏微分方程式の解は、初期条件を対応する解体にマッピングする作用素として解釈できるからである。
目的は、過渡的なPDEの繰り返し解を必要とする温度-真空スウィング吸着(TVSA)のような循環過程の収束を加速することである。
異種初期条件からなる混合学習データセットを構築し,対応する解演算子を近似するためにDeepONetsを訓練する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Operator Networks are emerging as fundamental tools among various neural network types to learn mappings between function spaces, and have recently gained attention due to their ability to approximate nonlinear operators. In particular, DeepONets offer a natural formulation for PDE solving, since the solution of a partial differential equation can be interpreted as an operator mapping an initial condition to its corresponding solution field. In this work, we applied DeepONets in the context of process modeling for adsorption technologies, to assess their feasibility as surrogates for cyclic adsorption process simulation and optimization. The goal is to accelerate convergence of cyclic processes such as Temperature-Vacuum Swing Adsorption (TVSA), which require repeated solution of transient PDEs, which are computationally expensive. Since each step of a cyclic adsorption process starts from the final state of the preceding step, effective surrogate modeling requires generalization across a wide range of initial conditions. The governing equations exhibit steep traveling fronts, providing a demanding benchmark for operator learning. To evaluate functional generalization under these conditions, we construct a mixed training dataset composed of heterogeneous initial conditions and train DeepONets to approximate the corresponding solution operators. The trained models are then tested on initial conditions outside the parameter ranges used during training, as well as on completely unseen functional forms. The results demonstrate accurate predictions both within and beyond the training distribution, highlighting DeepONets as potential efficient surrogates for accelerating cyclic adsorption simulations and optimization workflows.
- Abstract(参考訳): Deep Operator Networksは、関数空間間のマッピングを学習するための、さまざまなニューラルネットワークタイプの基本ツールとして登場しており、最近、非線形演算子を近似する能力によって注目を集めている。
特にDeepONetsは、偏微分方程式の解は、初期条件を対応する解体にマッピングする作用素として解釈できるので、PDE解決の自然な定式化を提供する。
本研究では, 吸着技術におけるプロセスモデリングの文脈においてDeepONetsを適用し, 循環吸着プロセスシミュレーションと最適化のためのサロゲートとしての有効性を評価する。
目的は、計算コストのかかる過渡的なPDEの繰り返し解を必要とする温度-真空・スウィング吸着(TVSA)のような循環過程の収束を加速することである。
環状吸着プロセスの各ステップは前ステップの最終状態から始まるため、効果的な代理モデリングは幅広い初期条件をまたいだ一般化を必要とする。
支配方程式は急な走行前線を示し、演算子学習のための要求の高いベンチマークを提供する。
これらの条件下での関数一般化を評価するため、不均一な初期条件からなる混合学習データセットを構築し、DeepONetsを学習して対応する解演算子を近似する。
トレーニングされたモデルは、トレーニング中に使用されるパラメータ範囲外の初期条件と、完全に見えない機能形式でテストされる。
この結果から,DeepONetsは循環吸着シミュレーションや最適化ワークフローの高速化に有効なサロゲートである可能性が示唆された。
関連論文リスト
- Accelerating PDE Solvers with Equation-Recast Neural Operator Preconditioning [9.178290601589365]
Minimal-Data Parametric Neural Operator Preconditioning (MD-PNOP) はパラメトリックPDEソルバを高速化するための新しいパラダイムである。
パラメータ偏差の残差を、トレーニングされたニューラル演算子を使用して、オフラインでソリューションを洗練させる、追加のソース用語として再キャストする。
固定ソース、単一グループ固有値、および多群結合固有値問題に対する完全順序忠実度を維持しつつ、計算時間の50%削減を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-01T12:14:58Z) - Deep Equilibrium models for Poisson Imaging Inverse problems via Mirror Descent [7.248102801711294]
ディープ平衡モデル(Deep Equilibrium Models、DEQ)は、固定点を持つ暗黙のニューラルネットワークである。
我々は、非ユークリッド幾何学の仕方で定義されるミラー・ディクセントに基づく新しいDEC式を導入する。
本稿では,効率的なトレーニングと完全パラメータフリー推論が可能な計算戦略を提案する。
論文 参考訳(メタデータ) (2025-07-15T16:33:01Z) - Learning Optical Flow Field via Neural Ordinary Differential Equation [44.16275288019991]
近年の光学フロー推定では、ニューラルネットワークを用いて、ある画像の位置を他方の位置にマッピングする流れ場を予測している。
連続モデル,すなわちニューラル常微分方程式(ODE)を用いて流れの微分を予測する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-06-03T18:30:14Z) - Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - DeltaPhi: Physical States Residual Learning for Neural Operators in Data-Limited PDE Solving [54.605760146540234]
DeltaPhiは、PDE解決タスクを、直接入力出力マッピングの学習から、類似の物理的状態間の残差学習に変換する、新しい学習フレームワークである。
大規模な実験は、様々な物理的システムにまたがって一貫した、重要な改善を示す。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Long-time integration of parametric evolution equations with
physics-informed DeepONets [0.0]
ランダムな初期条件を関連するPDE解に短時間でマッピングする無限次元演算子を学習するための効果的なフレームワークを提案する。
その後、訓練されたモデルを反復的に評価することにより、一連の初期条件にわたるグローバルな長期予測が得られる。
これは時間領域分解に対する新しいアプローチを導入し、正確な長期シミュレーションを実行するのに有効であることを示した。
論文 参考訳(メタデータ) (2021-06-09T20:46:17Z) - An AI-Assisted Design Method for Topology Optimization Without
Pre-Optimized Training Data [68.8204255655161]
トポロジ最適化に基づくAI支援設計手法を提示し、最適化された設計を直接的に得ることができる。
設計は、境界条件と入力データとしての充填度に基づいて、人工ニューラルネットワーク、予測器によって提供される。
論文 参考訳(メタデータ) (2020-12-11T14:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。