論文の概要: Reconstructing spectral functions via automatic differentiation
- arxiv url: http://arxiv.org/abs/2111.14760v1
- Date: Mon, 29 Nov 2021 18:09:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 19:01:00.101519
- Title: Reconstructing spectral functions via automatic differentiation
- Title(参考訳): 自動微分によるスペクトル関数の再構成
- Authors: Lingxiao Wang, Shuzhe Shi, Kai Zhou
- Abstract要約: ユークリッドグリーン関数からスペクトル関数を再構成することは、多体物理学において重要な逆問題である。
本稿では,プロパゲータオブザーバからのスペクトル再構成のための汎用ツールとして,自動微分(AD)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.015034534260664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing spectral functions from Euclidean Green's functions is an
important inverse problem in many-body physics. However, the inversion is
proved to be ill-posed in the realistic systems with noisy Green's functions.
In this Letter, we propose an automatic differentiation(AD) framework as a
generic tool for the spectral reconstruction from propagator observable.
Exploiting the neural networks' regularization as a non-local smoothness
regulator of the spectral function, we represent spectral functions by neural
networks and use propagator's reconstruction error to optimize the network
parameters unsupervisedly. In the training process, except for the
positive-definite form for the spectral function, there are no other explicit
physical priors embedded into the neural networks. The reconstruction
performance is assessed through relative entropy and mean square error for two
different network representations. Compared to the maximum entropy method, the
AD framework achieves better performance in large-noise situation. It is noted
that the freedom of introducing non-local regularization is an inherent
advantage of the present framework and may lead to substantial improvements in
solving inverse problems.
- Abstract(参考訳): ユークリッドグリーン関数からスペクトル関数を再構成することは、多体物理学において重要な逆問題である。
しかし、ノイズグリーン関数を持つ現実的なシステムでは反転が不適切であることが証明されている。
本稿では,プロパゲータオブザーバからのスペクトル再構成のための汎用ツールとして,自動微分(AD)フレームワークを提案する。
スペクトル関数の非局所スムーズ性レギュレータとしてのニューラルネットワークの正規化を実行し、ニューラルネットワークによるスペクトル関数を表現し、プロパゲータの再構成誤差を用いてネットワークパラメータを教師なしで最適化する。
トレーニングプロセスでは、スペクトル関数の正定値形式を除いて、ニューラルネットワークに埋め込まれた他の明示的な物理前駆体は存在しない。
再構成性能は2つの異なるネットワーク表現に対する相対エントロピーと平均二乗誤差によって評価される。
最大エントロピー法と比較して、ADフレームワークは大きな雑音環境下でより良い性能を達成する。
非局所正規化を導入する自由は、現在のフレームワークの固有の利点であり、逆問題解決の大幅な改善につながる可能性がある。
関連論文リスト
- Point-Calibrated Spectral Neural Operators [54.13671100638092]
点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
点平衡スペクトル演算子は点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
論文 参考訳(メタデータ) (2024-10-15T08:19:39Z) - Deep Learning without Global Optimization by Random Fourier Neural Networks [0.0]
本稿では、ランダムな複雑な指数関数活性化関数を利用する様々なディープニューラルネットワークのための新しいトレーニングアルゴリズムを提案する。
提案手法では,マルコフ連鎖モンテカルロサンプリング法を用いてネットワーク層を反復的に訓練する。
複雑な指数的活性化関数を持つ残留ネットワークの理論的近似速度を一貫して達成する。
論文 参考訳(メタデータ) (2024-07-16T16:23:40Z) - Nonlinear functional regression by functional deep neural network with
kernel embedding [20.306390874610635]
本稿では,効率的かつ完全なデータ依存型次元減少法を備えた機能的ディープニューラルネットワークを提案する。
機能ネットのアーキテクチャは、カーネル埋め込みステップ、プロジェクションステップ、予測のための深いReLUニューラルネットワークで構成される。
スムーズなカーネル埋め込みを利用することで、我々の関数ネットは離散化不変であり、効率的で、頑健でノイズの多い観測が可能となる。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - A Lifted Bregman Formulation for the Inversion of Deep Neural Networks [28.03724379169264]
本稿では,ディープニューラルネットワークの正規化インバージョンのための新しいフレームワークを提案する。
このフレームワークは、補助変数を導入することにより、パラメータ空間を高次元空間に引き上げる。
理論的結果を提示し,その実用的応用を数値的な例で支援する。
論文 参考訳(メタデータ) (2023-03-01T20:30:22Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Neural network approach to reconstructing spectral functions and complex
poles of confined particles [0.0]
プロパゲータデータからのスペクトル関数の再構成は困難である。
この問題を解決するためにニューラルネットワークを用いた最近の研究が提案されている。
我々は、スペクトル関数を再構成するだけでなく、複雑な極の対や赤外(IR)遮断によって、このアプローチを一般化する。
論文 参考訳(メタデータ) (2022-03-07T11:13:30Z) - Automatic differentiation approach for reconstructing spectral functions
with neural networks [30.015034534260664]
本稿では,観測可能なデータから再構成するための汎用ツールとして,自動微分フレームワークを提案する。
我々は、ニューラルネットワークでスペクトルを表現し、カイ二乗を損失関数として設定し、後方自動微分を教師なしでパラメータを最適化する。
復元精度は、複数の雑音レベルにおけるKulback-Leibler(KL)分散と平均二乗誤差(MSE)によって評価される。
論文 参考訳(メタデータ) (2021-12-12T11:21:57Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - On dissipative symplectic integration with applications to
gradient-based optimization [77.34726150561087]
本稿では,離散化を体系的に実現する幾何学的枠組みを提案する。
我々は、シンプレクティックな非保守的、特に散逸的なハミルトン系への一般化が、制御された誤差まで収束率を維持することができることを示す。
論文 参考訳(メタデータ) (2020-04-15T00:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。