論文の概要: A research framework for writing differentiable PDE discretizations in
JAX
- arxiv url: http://arxiv.org/abs/2111.05218v1
- Date: Tue, 9 Nov 2021 15:58:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:57:36.971546
- Title: A research framework for writing differentiable PDE discretizations in
JAX
- Title(参考訳): JAXで微分可能PDE離散化を記述するための研究フレームワーク
- Authors: Antonio Stanziola, Simon R. Arridge, Ben T. Cox, Bradley E. Treeby
- Abstract要約: 微分可能シミュレータは、強化学習から最適制御まで、いくつかの分野で応用される新しい概念である。
連続関数の族間の写像として作用素を表現し、有限ベクトルでパラメタ化することにより、微分可能作用素と離散化のライブラリを提案する。
本稿では、フーリエスペクトル法を用いてヘルムホルツ方程式を離散化し、勾配勾配を用いて微分可能性を示し、音響レンズの音速を最適化する音響最適化問題に対するアプローチを示す。
- 参考スコア(独自算出の注目度): 3.4389358108344257
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Differentiable simulators are an emerging concept with applications in
several fields, from reinforcement learning to optimal control. Their
distinguishing feature is the ability to calculate analytic gradients with
respect to the input parameters. Like neural networks, which are constructed by
composing several building blocks called layers, a simulation often requires
computing the output of an operator that can itself be decomposed into
elementary units chained together. While each layer of a neural network
represents a specific discrete operation, the same operator can have multiple
representations, depending on the discretization employed and the research
question that needs to be addressed. Here, we propose a simple design pattern
to construct a library of differentiable operators and discretizations, by
representing operators as mappings between families of continuous functions,
parametrized by finite vectors. We demonstrate the approach on an acoustic
optimization problem, where the Helmholtz equation is discretized using Fourier
spectral methods, and differentiability is demonstrated using gradient descent
to optimize the speed of sound of an acoustic lens. The proposed framework is
open-sourced and available at \url{https://github.com/ucl-bug/jaxdf}
- Abstract(参考訳): 微分シミュレータは、強化学習から最適制御まで、いくつかの分野で応用される新しい概念である。
それらの特徴は、入力パラメータに関する解析的勾配を計算する能力である。
レイヤと呼ばれる複数のビルディングブロックを合成して構築されるニューラルネットワークのように、シミュレーションでは、それ自体をプライマリユニットにまとめることができるオペレータの出力を計算する必要がある。
ニューラルネットワークの各レイヤは特定の個別の操作を表すが、同じオペレータは、使用される離散化や対処すべき研究問題に応じて、複数の表現を持つことができる。
本稿では,有限ベクトルによってパラメータ化される連続関数の族間の写像として演算子を表現することにより,微分可能作用素と離散化のライブラリを構築するためのシンプルな設計パターンを提案する。
本研究では,フーリエスペクトル法を用いてヘルムホルツ方程式を離散化し,勾配降下を用いて音響レンズの音速を最適化する音響最適化問題に対して,微分可能性を示す。
提案されたフレームワークはオープンソースであり、 \url{https://github.com/ucl-bug/jaxdf}で利用可能である。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Dilated convolution neural operator for multiscale partial differential equations [11.093527996062058]
本稿では,多スケール偏微分方程式に対するDilated Convolutional Neural Operator (DCNO)を提案する。
DCNOアーキテクチャは、低計算コストを維持しながら、高周波と低周波の両方の特徴を効果的にキャプチャする。
我々は,DCNOが精度と計算コストの最適なバランスをとることを示し,マルチスケール演算子学習に有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-16T08:17:02Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Transformer for Partial Differential Equations' Operator Learning [0.0]
演算子変換器(OFormer)と呼ばれるデータ駆動型演算子学習のための注意ベースのフレームワークを提案する。
我々のフレームワークは、自己注意、クロスアテンション、および一組のポイントワイド多層パーセプトロン(MLP)に基づいて構築されている。
論文 参考訳(メタデータ) (2022-05-26T23:17:53Z) - A Unified Framework for Implicit Sinkhorn Differentiation [58.56866763433335]
暗黙の微分によってシンクホーン層の解析勾配を求めるアルゴリズムを提案する。
特にGPUメモリなどのリソースが不足している場合には,計算効率が向上する。
論文 参考訳(メタデータ) (2022-05-13T14:45:31Z) - Feature Engineering with Regularity Structures [4.082216579462797]
機械学習タスクの特徴として,正則構造理論からのモデルの利用について検討する。
本研究では、時空信号に付随するモデル特徴ベクトルの柔軟な定義と、これらの特徴を線形回帰と組み合わせる方法を示す2つのアルゴリズムを提供する。
我々はこれらのアルゴリズムを、与えられた強制と境界データを用いてPDEの解を学ぶために設計されたいくつかの数値実験に適用する。
論文 参考訳(メタデータ) (2021-08-12T17:53:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Deep neural networks for inverse problems with pseudodifferential
operators: an application to limited-angle tomography [0.4110409960377149]
線形逆問題において擬微分演算子(Psi$DOs)を学習するための新しい畳み込みニューラルネットワーク(CNN)を提案する。
フォワード演算子のより一般的な仮定の下では、ISTAの展開された反復はCNNの逐次的な層として解釈できることを示す。
特に、LA-CTの場合、アップスケーリング、ダウンスケーリング、畳み込みの操作は、制限角X線変換の畳み込み特性とウェーブレット系を定義する基本特性を組み合わせることで正確に決定できることを示す。
論文 参考訳(メタデータ) (2020-06-02T14:03:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。