論文の概要: Blaschke Product Neural Networks (BPNN): A Physics-Infused Neural
Network for Phase Retrieval of Meromorphic Functions
- arxiv url: http://arxiv.org/abs/2111.13311v1
- Date: Fri, 26 Nov 2021 04:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 00:50:26.834088
- Title: Blaschke Product Neural Networks (BPNN): A Physics-Infused Neural
Network for Phase Retrieval of Meromorphic Functions
- Title(参考訳): Blaschke Product Neural Networks (BPNN): メロモルフィック関数の位相検索のための物理拡散ニューラルネットワーク
- Authors: Juncheng Dong, Simiao Ren, Yang Deng, Omar Khatib, Jordan Malof,
Mohammadreza Soltani, Willie Padilla, Vahid Tarokh
- Abstract要約: 位相探索のためのBlaschke生成物に基づく物理拡散深層ニューラルネットワークを提案する。
Helson and Sarason Theoremに触発され、Blaschke Product Neural Network (BPNN) を用いてブラスキー製品の有理関数の係数を復元する。
BPNNと従来のディープニューラルネットワーク(NN)を相検索問題で比較する。
- 参考スコア(独自算出の注目度): 28.604508357938187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerous physical systems are described by ordinary or partial differential
equations whose solutions are given by holomorphic or meromorphic functions in
the complex domain. In many cases, only the magnitude of these functions are
observed on various points on the purely imaginary jw-axis since coherent
measurement of their phases is often expensive. However, it is desirable to
retrieve the lost phases from the magnitudes when possible. To this end, we
propose a physics-infused deep neural network based on the Blaschke products
for phase retrieval. Inspired by the Helson and Sarason Theorem, we recover
coefficients of a rational function of Blaschke products using a Blaschke
Product Neural Network (BPNN), based upon the magnitude observations as input.
The resulting rational function is then used for phase retrieval. We compare
the BPNN to conventional deep neural networks (NNs) on several phase retrieval
problems, comprising both synthetic and contemporary real-world problems (e.g.,
metamaterials for which data collection requires substantial expertise and is
time consuming). On each phase retrieval problem, we compare against a
population of conventional NNs of varying size and hyperparameter settings.
Even without any hyper-parameter search, we find that BPNNs consistently
outperform the population of optimized NNs in scarce data scenarios, and do so
despite being much smaller models. The results can in turn be applied to
calculate the refractive index of metamaterials, which is an important problem
in emerging areas of material science.
- Abstract(参考訳): 多くの物理系は一般あるいは偏微分方程式によって記述され、その解は複素領域の正則あるいは正則函数によって与えられる。
多くの場合、これらの関数の大きさは、その位相のコヒーレントな測定がしばしば高価であるため、純粋に想像上のjw軸上の様々な点で観察される。
しかし、できるだけの規模から失われた位相を回収することが望ましい。
そこで本研究では,Blaschke生成物に基づく物理拡散深層ニューラルネットワークによる位相探索を提案する。
我々は,Blaschke Product Neural Network (BPNN) を用いて,Blaschkeの積の有理関数の係数を入力として,ヘルソン理論とSarason理論に着想を得た。
結果として生じる有理関数は位相探索に使用される。
BPNNと従来のディープニューラルネットワーク(NN)を、合成と現代の両方の現実世界の問題(例えば、データ収集にかなりの専門知識と時間を要するメタマテリアル)を含む相検索問題で比較する。
各位相探索問題において、異なるサイズとハイパーパラメータ設定の従来のNNの集団と比較する。
ハイパーパラメーター検索がなくても、BPNNはデータシナリオが乏しいため、最適化NNの人口を一貫して上回ります。
この結果は, 材料科学の新たな領域において重要な問題である, メタマテリアルの屈折率の計算に応用できる。
関連論文リスト
- Deeper or Wider: A Perspective from Optimal Generalization Error with Sobolev Loss [2.07180164747172]
より深いニューラルネットワーク(DeNN)と、柔軟な数のレイヤと、限られた隠れたレイヤを持つより広いニューラルネットワーク(WeNN)を比較します。
より多くのパラメータがWeNNを好む傾向にあるのに対し、サンプルポイントの増加と損失関数の規則性の向上は、DeNNの採用に傾いている。
論文 参考訳(メタデータ) (2024-01-31T20:10:10Z) - Do deep neural networks have an inbuilt Occam's razor? [1.1470070927586016]
構造データとOccam's razor-likeインダクティブバイアスが組み合わさった単純な関数に対する構造データは、複雑さを伴う関数の指数的成長に反することを示す。
この分析により、構造データと(コルモゴロフ)単純関数に対するOccam's razor-likeインダクティブバイアスが組み合わさって、複雑さを伴う関数の指数的成長に対抗できるほど強いことがDNNの成功の鍵であることが明らかになった。
論文 参考訳(メタデータ) (2023-04-13T16:58:21Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - A mixed formulation for physics-informed neural networks as a potential
solver for engineering problems in heterogeneous domains: comparison with
finite element method [0.0]
物理インフォームドニューラルネットワーク(PINN)は、与えられた境界値問題の解を見つけることができる。
工学的問題における既存のPINNの性能を高めるために,有限要素法(FEM)からいくつかのアイデアを取り入れた。
論文 参考訳(メタデータ) (2022-06-27T08:18:08Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Scientific Machine Learning through Physics-Informed Neural Networks:
Where we are and What's next [5.956366179544257]
physic-Informed Neural Networks (PINN) は、モデル方程式を符号化するニューラルネットワーク(NN)である。
PINNは現在ではPDE、分数方程式、積分微分方程式の解法として使われている。
論文 参考訳(メタデータ) (2022-01-14T19:05:44Z) - Deep neural networks for smooth approximation of physics with higher
order and continuity B-spline base functions [0.4588028371034407]
伝統的に、ニューラルネットワークは、与えられた物理現象を近似するために非線形活性化関数を使用する。
そこで本研究では, 物理量を滑らかなB-スプライン基底関数の線形結合として近似する手法を提案する。
物理場を近似する場合,我々のアプローチはより安価で正確であることを示す。
論文 参考訳(メタデータ) (2022-01-03T23:02:39Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。