論文の概要: Automatic differentiation approach for reconstructing spectral functions
with neural networks
- arxiv url: http://arxiv.org/abs/2112.06206v1
- Date: Sun, 12 Dec 2021 11:21:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 19:31:08.338994
- Title: Automatic differentiation approach for reconstructing spectral functions
with neural networks
- Title(参考訳): ニューラルネットワークを用いたスペクトル関数再構成のための自動微分法
- Authors: Lingxiao Wang, Shuzhe Shi, Kai Zhou
- Abstract要約: 本稿では,観測可能なデータから再構成するための汎用ツールとして,自動微分フレームワークを提案する。
我々は、ニューラルネットワークでスペクトルを表現し、カイ二乗を損失関数として設定し、後方自動微分を教師なしでパラメータを最適化する。
復元精度は、複数の雑音レベルにおけるKulback-Leibler(KL)分散と平均二乗誤差(MSE)によって評価される。
- 参考スコア(独自算出の注目度): 30.015034534260664
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reconstructing spectral functions from Euclidean Green's functions is an
important inverse problem in physics. The prior knowledge for specific physical
systems routinely offers essential regularization schemes for solving the
ill-posed problem approximately. Aiming at this point, we propose an automatic
differentiation framework as a generic tool for the reconstruction from
observable data. We represent the spectra by neural networks and set chi-square
as loss function to optimize the parameters with backward automatic
differentiation unsupervisedly. In the training process, there is no explicit
physical prior embedding into neural networks except the positive-definite
form. The reconstruction accuracy is assessed through Kullback-Leibler(KL)
divergence and mean square error(MSE) at multiple noise levels. It should be
noted that the automatic differential framework and the freedom of introducing
regularization are inherent advantages of the present approach and may lead to
improvements of solving inverse problem in the future.
- Abstract(参考訳): ユークリッドグリーン関数からスペクトル関数を再構成することは物理学において重要な逆問題である。
特定の物理系に対する事前知識は、概ね不適切な問題を解くための本質的な正規化スキームを提供する。
本稿では,観測可能なデータから再構成するための汎用ツールとして,自動微分フレームワークを提案する。
ニューラルネットワークによるスペクトルを表現し,chi-squareを損失関数とし,後方自動微分を教師なしでパラメータを最適化する。
トレーニングプロセスでは、肯定的な形式を除いて、ニューラルネットワークへの明確な物理的事前埋め込みは存在しない。
復元精度は、複数の雑音レベルにおけるKulback-Leibler(KL)分散と平均二乗誤差(MSE)によって評価される。
自動微分フレームワークと正規化導入の自由は、現在のアプローチの固有の利点であり、将来的には逆問題の改善につながる可能性があることに注意する必要がある。
関連論文リスト
- Nonlinear functional regression by functional deep neural network with
kernel embedding [20.306390874610635]
本稿では,効率的かつ完全なデータ依存型次元減少法を備えた機能的ディープニューラルネットワークを提案する。
機能ネットのアーキテクチャは、カーネル埋め込みステップ、プロジェクションステップ、予測のための深いReLUニューラルネットワークで構成される。
スムーズなカーネル埋め込みを利用することで、我々の関数ネットは離散化不変であり、効率的で、頑健でノイズの多い観測が可能となる。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - Function-Space Regularization in Neural Networks: A Probabilistic
Perspective [51.133793272222874]
所望の予測関数に関する情報をニューラルネットワークトレーニングに明示的にエンコードできる、モチベーションの高い正規化手法を導出できることが示される。
本手法の有効性を実証的に評価し,提案手法がほぼ完全なセマンティックシフト検出と高度に校正された予測不確実性推定に繋がることを示す。
論文 参考訳(メタデータ) (2023-12-28T17:50:56Z) - Regularization, early-stopping and dreaming: a Hopfield-like setup to
address generalization and overfitting [0.0]
正規化損失関数に勾配降下を適用し,最適ネットワークパラメータを求める。
この枠組みの中で、最適なニューロン相互作用行列は、繰り返し学習プロトコルによって修正されたヘビアン核に対応する。
論文 参考訳(メタデータ) (2023-08-01T15:04:30Z) - A Lifted Bregman Formulation for the Inversion of Deep Neural Networks [28.03724379169264]
本稿では,ディープニューラルネットワークの正規化インバージョンのための新しいフレームワークを提案する。
このフレームワークは、補助変数を導入することにより、パラメータ空間を高次元空間に引き上げる。
理論的結果を提示し,その実用的応用を数値的な例で支援する。
論文 参考訳(メタデータ) (2023-03-01T20:30:22Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Neural network approach to reconstructing spectral functions and complex
poles of confined particles [0.0]
プロパゲータデータからのスペクトル関数の再構成は困難である。
この問題を解決するためにニューラルネットワークを用いた最近の研究が提案されている。
我々は、スペクトル関数を再構成するだけでなく、複雑な極の対や赤外(IR)遮断によって、このアプローチを一般化する。
論文 参考訳(メタデータ) (2022-03-07T11:13:30Z) - Reconstructing spectral functions via automatic differentiation [30.015034534260664]
ユークリッドグリーン関数からスペクトル関数を再構成することは、多体物理学において重要な逆問題である。
本稿では,プロパゲータオブザーバからのスペクトル再構成のための汎用ツールとして,自動微分(AD)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-29T18:09:49Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - On dissipative symplectic integration with applications to
gradient-based optimization [77.34726150561087]
本稿では,離散化を体系的に実現する幾何学的枠組みを提案する。
我々は、シンプレクティックな非保守的、特に散逸的なハミルトン系への一般化が、制御された誤差まで収束率を維持することができることを示す。
論文 参考訳(メタデータ) (2020-04-15T00:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。