論文の概要: A research framework for writing differentiable PDE discretizations in
JAX
- arxiv url: http://arxiv.org/abs/2111.05218v1
- Date: Tue, 9 Nov 2021 15:58:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:57:36.971546
- Title: A research framework for writing differentiable PDE discretizations in
JAX
- Title(参考訳): JAXで微分可能PDE離散化を記述するための研究フレームワーク
- Authors: Antonio Stanziola, Simon R. Arridge, Ben T. Cox, Bradley E. Treeby
- Abstract要約: 微分可能シミュレータは、強化学習から最適制御まで、いくつかの分野で応用される新しい概念である。
連続関数の族間の写像として作用素を表現し、有限ベクトルでパラメタ化することにより、微分可能作用素と離散化のライブラリを提案する。
本稿では、フーリエスペクトル法を用いてヘルムホルツ方程式を離散化し、勾配勾配を用いて微分可能性を示し、音響レンズの音速を最適化する音響最適化問題に対するアプローチを示す。
- 参考スコア(独自算出の注目度): 3.4389358108344257
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Differentiable simulators are an emerging concept with applications in
several fields, from reinforcement learning to optimal control. Their
distinguishing feature is the ability to calculate analytic gradients with
respect to the input parameters. Like neural networks, which are constructed by
composing several building blocks called layers, a simulation often requires
computing the output of an operator that can itself be decomposed into
elementary units chained together. While each layer of a neural network
represents a specific discrete operation, the same operator can have multiple
representations, depending on the discretization employed and the research
question that needs to be addressed. Here, we propose a simple design pattern
to construct a library of differentiable operators and discretizations, by
representing operators as mappings between families of continuous functions,
parametrized by finite vectors. We demonstrate the approach on an acoustic
optimization problem, where the Helmholtz equation is discretized using Fourier
spectral methods, and differentiability is demonstrated using gradient descent
to optimize the speed of sound of an acoustic lens. The proposed framework is
open-sourced and available at \url{https://github.com/ucl-bug/jaxdf}
- Abstract(参考訳): 微分シミュレータは、強化学習から最適制御まで、いくつかの分野で応用される新しい概念である。
それらの特徴は、入力パラメータに関する解析的勾配を計算する能力である。
レイヤと呼ばれる複数のビルディングブロックを合成して構築されるニューラルネットワークのように、シミュレーションでは、それ自体をプライマリユニットにまとめることができるオペレータの出力を計算する必要がある。
ニューラルネットワークの各レイヤは特定の個別の操作を表すが、同じオペレータは、使用される離散化や対処すべき研究問題に応じて、複数の表現を持つことができる。
本稿では,有限ベクトルによってパラメータ化される連続関数の族間の写像として演算子を表現することにより,微分可能作用素と離散化のライブラリを構築するためのシンプルな設計パターンを提案する。
本研究では,フーリエスペクトル法を用いてヘルムホルツ方程式を離散化し,勾配降下を用いて音響レンズの音速を最適化する音響最適化問題に対して,微分可能性を示す。
提案されたフレームワークはオープンソースであり、 \url{https://github.com/ucl-bug/jaxdf}で利用可能である。
関連論文リスト
- Making Sense Of Distributed Representations With Activation Spectroscopy [44.94093096989921]
関連する機能が多くのニューロンに分散的にコード化されていることを示す証拠が増えている。
この研究は、分散表現におけるニューロンの結合の影響を検知し、追跡するための一つの実現可能な経路を探索する。
論文 参考訳(メタデータ) (2025-01-26T07:33:42Z) - Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Score-based Diffusion Models in Function Space [137.70916238028306]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
この研究は、関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)と呼ばれる数学的に厳密なフレームワークを導入する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Transformer for Partial Differential Equations' Operator Learning [0.0]
演算子変換器(OFormer)と呼ばれるデータ駆動型演算子学習のための注意ベースのフレームワークを提案する。
我々のフレームワークは、自己注意、クロスアテンション、および一組のポイントワイド多層パーセプトロン(MLP)に基づいて構築されている。
論文 参考訳(メタデータ) (2022-05-26T23:17:53Z) - A Unified Framework for Implicit Sinkhorn Differentiation [58.56866763433335]
暗黙の微分によってシンクホーン層の解析勾配を求めるアルゴリズムを提案する。
特にGPUメモリなどのリソースが不足している場合には,計算効率が向上する。
論文 参考訳(メタデータ) (2022-05-13T14:45:31Z) - Feature Engineering with Regularity Structures [4.082216579462797]
機械学習タスクの特徴として,正則構造理論からのモデルの利用について検討する。
本研究では、時空信号に付随するモデル特徴ベクトルの柔軟な定義と、これらの特徴を線形回帰と組み合わせる方法を示す2つのアルゴリズムを提供する。
我々はこれらのアルゴリズムを、与えられた強制と境界データを用いてPDEの解を学ぶために設計されたいくつかの数値実験に適用する。
論文 参考訳(メタデータ) (2021-08-12T17:53:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Deep neural networks for inverse problems with pseudodifferential
operators: an application to limited-angle tomography [0.4110409960377149]
線形逆問題において擬微分演算子(Psi$DOs)を学習するための新しい畳み込みニューラルネットワーク(CNN)を提案する。
フォワード演算子のより一般的な仮定の下では、ISTAの展開された反復はCNNの逐次的な層として解釈できることを示す。
特に、LA-CTの場合、アップスケーリング、ダウンスケーリング、畳み込みの操作は、制限角X線変換の畳み込み特性とウェーブレット系を定義する基本特性を組み合わせることで正確に決定できることを示す。
論文 参考訳(メタデータ) (2020-06-02T14:03:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。