論文の概要: Mollifier Layers: Enabling Efficient High-Order Derivatives in Inverse PDE Learning
- arxiv url: http://arxiv.org/abs/2505.11682v1
- Date: Fri, 16 May 2025 20:43:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.77968
- Title: Mollifier Layers: Enabling Efficient High-Order Derivatives in Inverse PDE Learning
- Title(参考訳): モリファイア層:逆PDE学習における高次高次導関数の高次化
- Authors: Ananyae Kumar Bhartari, Vinayak Vinayak, Vivek B Shenoy,
- Abstract要約: Mollifier Layersは、Autodiffを解析的に定義されたMollifierを使って畳み込み操作に置き換える軽量モジュールである。
タスク間のパラメータ回復において,メモリ効率,トレーニング時間,精度が大幅に向上した。
この結果から,Mollifier Layersを物理インフォームドラーニングのための効率的かつスケーラブルなツールとして確立した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parameter estimation in inverse problems involving partial differential equations (PDEs) underpins modeling across scientific disciplines, especially when parameters vary in space or time. Physics-informed Machine Learning (PhiML) integrates PDE constraints into deep learning, but prevailing approaches depend on recursive automatic differentiation (autodiff), which produces inaccurate high-order derivatives, inflates memory usage, and underperforms in noisy settings. We propose Mollifier Layers, a lightweight, architecture-agnostic module that replaces autodiff with convolutional operations using analytically defined mollifiers. This reframing of derivative computation as smoothing integration enables efficient, noise-robust estimation of high-order derivatives directly from network outputs. Mollifier Layers attach at the output layer and require no architectural modifications. We compare them with three distinct architectures and benchmark performance across first-, second-, and fourth-order PDEs -- including Langevin dynamics, heat diffusion, and reaction-diffusion systems -- observing significant improvements in memory efficiency, training time and accuracy for parameter recovery across tasks. To demonstrate practical relevance, we apply Mollifier Layers to infer spatially varying epigenetic reaction rates from super-resolution chromatin imaging data -- a real-world inverse problem with biomedical significance. Our results establish Mollifier Layers as an efficient and scalable tool for physics-constrained learning.
- Abstract(参考訳): 偏微分方程式(PDE)を含む逆問題におけるパラメータ推定は、特にパラメータが空間や時間によって異なる場合、科学分野にわたるモデリングの基盤となる。
物理インフォームド機械学習(PhiML)はPDE制約をディープラーニングに統合するが、一般的なアプローチは再帰的自動微分(autodiff)に依存している。
解析的に定義されたモリファイアを用いて,Autodiffを畳み込み操作に置き換える軽量なアーキテクチャに依存しないモジュールであるMollifier Layersを提案する。
導関数計算をスムーズな積分として再フレーミングすることで、ネットワーク出力から直接高次導関数を効率よくノイズ・ロバストに推定することができる。
Mollifier Layersは出力層にアタッチされ、アーキテクチャの変更は不要である。
我々は、Langevinのダイナミックス、熱拡散、反応拡散システムを含む、第1、第2、第4のPDEの3つの異なるアーキテクチャとベンチマークパフォーマンスを比較し、タスク間でのパラメータ回復のトレーニング時間と精度の大幅な改善を観察した。
実用的妥当性を示すために,超高分解能クロマチンイメージングデータから空間的に変化するエピジェネティック反応速度を推定するためにMollifier Layersを適用した。
この結果から,Mollifier Layersを物理制約学習のための効率的かつスケーラブルなツールとして確立した。
関連論文リスト
- Implicit Neural Differential Model for Spatiotemporal Dynamics [5.1854032131971195]
In-PiNDiffは、安定時間力学のための新しい暗黙の物理積分型ニューラル微分可能解法である。
深い平衡モデルにインスパイアされたIm-PiNDiffは、暗黙の固定点層を用いて状態を前進させ、堅牢な長期シミュレーションを可能にする。
Im-PiNDiffは優れた予測性能、数値安定性の向上、メモリとコストの大幅な削減を実現している。
論文 参考訳(メタデータ) (2025-04-03T04:07:18Z) - Tensor-GaLore: Memory-Efficient Training via Gradient Tensor Decomposition [93.98343072306619]
本研究では,高次テンソル重み付きニューラルネットワークの効率的なトレーニング手法であるNavier-GaLoreを提案する。
様々なPDEタスクの中で、Navier-GaLoreはメモリ節約を実現し、最大75%のメモリ使用量を削減している。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - A Data-Driven Framework for Discovering Fractional Differential Equations in Complex Systems [8.206685537936078]
本研究では、データから直接分数微分方程式(FDE)を発見するための段階的なデータ駆動フレームワークを提案する。
我々のフレームワークは、スパース観測とノイズ観測の分離と再構成のための代理モデルとしてディープニューラルネットワークを適用している。
本研究は, 凍結土壌のクリープ挙動に関する, 合成異常拡散データおよび実験データを含む, 各種データセットにわたるフレームワークの検証を行った。
論文 参考訳(メタデータ) (2024-12-05T08:38:30Z) - LOCAL: Learning with Orientation Matrix to Infer Causal Structure from Time Series Data [51.47827479376251]
LOCALは動的因果構造を復元するための効率的で実装が容易で制約のない手法である。
Asymptotic Causal Learning Mask (ACML) と Dynamic Graph Learning (DGPL)
合成および実世界のデータセットの実験では、LOCALが既存の手法よりも大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2024-10-25T10:48:41Z) - DOF: Accelerating High-order Differential Operators with Forward
Propagation [40.71528485918067]
一般の2階微分演算子を精度を損なわずに計算するための効率的なフレームワークである差分演算子(DOF)を提案する。
我々は、効率が2倍改善され、どんなアーキテクチャでもメモリ消費が削減されたことを実証する。
実験結果から,本手法は従来の自動微分法(AutoDiff)よりも優れ,構造が2倍,空間が20倍近く向上していることがわかった。
論文 参考訳(メタデータ) (2024-02-15T05:59:21Z) - Closed-Form Diffeomorphic Transformations for Time Series Alignment [0.0]
本稿では, ODE 解に対する閉形式表現とその勾配を, 連続的なピースワイド・ファイン速度関数の下で表現する。
その結果,効率と精度の両面で有意な改善が認められた。
論文 参考訳(メタデータ) (2022-06-16T12:02:12Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Solving inverse-PDE problems with physics-aware neural networks [0.0]
偏微分方程式の逆問題における未知の場を見つけるための新しい枠組みを提案する。
我々は,ディープニューラルネットワークの高表現性を,既存の数値アルゴリズムの精度と信頼性とを融合した普遍関数推定器とする。
論文 参考訳(メタデータ) (2020-01-10T18:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。