論文の概要: Deep Learning of the Eddington Tensor in the Core-collapse Supernova
Simulation
- arxiv url: http://arxiv.org/abs/2104.13039v1
- Date: Tue, 27 Apr 2021 08:26:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:19:52.059082
- Title: Deep Learning of the Eddington Tensor in the Core-collapse Supernova
Simulation
- Title(参考訳): コア・コラプス超新星シミュレーションにおけるエディントンテンソルの深層学習
- Authors: Akira Harada, Shota Nishikawa, and Shoichi Yamada
- Abstract要約: ニュートリノのエネルギー密度, フラックス, 流体速度の関数として深部ニューラルネットワーク(DNN)を訓練し, ニュートリノのエディントンテンソルを再現した。
モーメント法は閉関係を必要とするが、文献で一般的に用いられる解析閉関係は、運動空間におけるニュートリノ角分布のあらゆる側面を捕捉するものではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We trained deep neural networks (DNNs) as a function of the neutrino energy
density, flux, and the fluid velocity to reproduce the Eddington tensor for
neutrinos obtained in our first-principles core-collapse supernova (CCSN)
simulations. Although the moment method, which is one of the most popular
approximations for neutrino transport, requires a closure relation, none of the
analytical closure relations commonly employed in the literature captures all
aspects of the neutrino angular distribution in momentum space. In this paper,
we developed a closure relation by using the DNN that takes the neutrino energy
density, flux, and the fluid velocity as the input and the Eddington tensor as
the output. We consider two kinds of DNNs: a conventional DNN named a
component-wise neural network (CWNN) and a tensor-basis neural network (TBNN).
We found that the diagonal component of the Eddington tensor is reproduced
better by the DNNs than the M1-closure relation especially for low to
intermediate energies. For the off-diagonal component, the DNNs agree better
with the Boltzmann solver than the M1 closure at large radii. In the comparison
between the two DNNs, the TBNN has slightly better performance than the CWNN.
With the new closure relations at hand based on the DNNs that well reproduce
the Eddington tensor with much smaller costs, we opened up a new possibility
for the moment method.
- Abstract(参考訳): 我々はニュートリノエネルギー密度,フラックス,流体速度の関数としてディープニューラルネットワーク(DNN)を訓練し,第1原理核崩壊超新星シミュレーションで得られたニュートリノのエディントンテンソルを再現した。
ニュートリノ輸送の最も一般的な近似の1つであるモーメント法は閉包関係を必要とするが、文献で一般的に用いられる解析的閉包関係は、運動量空間におけるニュートリノ角分布のすべての側面を捉えるものではない。
本研究では,ニュートリノエネルギー密度,フラックス,流体速度を入力とし,エディントンテンソルを出力とするdnnを用いた閉包関係を開発した。
従来のdnnであるcomponent-wise neural network(cwnn)とtensor-basis neural network(tbnn)である。
その結果, テンソルの対角成分は, 低エネルギーから中エネルギーのM1閉鎖関係よりもDNNの方がよく再現できることがわかった。
対角成分について、DNNは大きな半径でのM1閉包よりもボルツマン解法によく一致する。
2つのDNNの比較では、TBNNはCWNNよりも若干性能が良い。
dnnに基づく新しい閉鎖関係により、エディントンテンソルをはるかに少ないコストで再現できるようになり、モーメント法の新しい可能性を開いた。
関連論文リスト
- Spiking Graph Neural Network on Riemannian Manifolds [51.15400848660023]
グラフニューラルネットワーク(GNN)は、グラフの学習において支配的なソリューションとなっている。
既存のスパイク GNN はユークリッド空間のグラフを考慮し、構造幾何学を無視している。
マニフォールド値スパイキングGNN(MSG)を提案する。
MSGは従来のGNNよりも優れた性能とエネルギー効率を実現している。
論文 参考訳(メタデータ) (2024-10-23T15:09:02Z) - Theoretical Analysis of Robust Overfitting for Wide DNNs: An NTK
Approach [8.994430921243767]
Adversarial Training (AT)は、ディープニューラルネットワーク(DNN)の堅牢性を高めるための標準的手法である
我々は, ニューラル・タンジェント・カーネル(NTK)理論をATに非自明に拡張し, 線形化されたDNNによって逆向きに訓練されたワイドDNNを適切に近似できることを証明する。
正方形損失の場合、線形化DNNの閉形式ATダイナミクスが導出され、新たなAT退化現象が明らかになる。
論文 参考訳(メタデータ) (2023-10-09T19:40:25Z) - Quantum-Inspired Tensor Neural Networks for Option Pricing [4.3942901219301564]
近年の深層学習の進歩により,高次元の問題を解くことで,次元性の呪い(COD)に対処することが可能になった。
このようなCODに対処するアプローチのサブセットは、高次元PDEの解決に繋がった。
この結果、数学的な金融から産業用途の制御まで、様々な現実世界の問題を解決するための扉が開けた。
論文 参考訳(メタデータ) (2022-12-28T19:39:55Z) - A noise based novel strategy for faster SNN training [0.0]
スパイキングニューラルネットワーク(SNN)は、消費電力の低さと強力なバイオプロファイザビリティによって注目を集めている。
人工知能ニューラルネットワーク(ANN)-SNN変換とスパイクベースのバックプロパゲーション(BP)の2つの主要な手法には、それぞれ長所と短所がある。
本稿では,2つの手法の利点を組み合わせた新しいSNNトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-10T09:59:04Z) - Towards Robust k-Nearest-Neighbor Machine Translation [72.9252395037097]
近年,k-Nearest-Neighbor Machine Translation (kNN-MT)がNMTの重要な研究方向となっている。
その主なアイデアは、NMTモデルを更新することなく翻訳を変更するために、追加のデータストアから有用なキーと値のペアを取得することである。
取り出したノイズペアはモデル性能を劇的に低下させる。
ノイズの影響を軽減するために,頑健なトレーニングを施した信頼性向上kNN-MTモデルを提案する。
論文 参考訳(メタデータ) (2022-10-17T07:43:39Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing [74.31472195046099]
我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-03-11T15:55:34Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Pruning of Deep Spiking Neural Networks through Gradient Rewiring [41.64961999525415]
スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性とニューロモルフィックチップの高エネルギー効率により、非常に重要視されている。
ほとんどの既存の方法は、ANNsとSNNsの違いを無視するSNNsに人工ニューラルネットワーク(ANNs)のプルーニングアプローチを直接適用する。
本稿では,ネットワーク構造を無訓練でシームレスに最適化可能な,snsの接続性と重み付けの合同学習アルゴリズムgradle rewiring (gradr)を提案する。
論文 参考訳(メタデータ) (2021-05-11T10:05:53Z) - MomentumRNN: Integrating Momentum into Recurrent Neural Networks [32.40217829362088]
我々は,MomentumRNNが,RNNのトレーニングにおいて消失する勾配問題を緩和することを示した。
MomentumRNNは、最先端のRNNなど、様々な種類のリカレント細胞に適用できる。
本稿では,Adam や Nesterov などの高度運動量に基づく最適化手法が再起動によって高速化され,MomentumRNN フレームワークに容易に組み込めることを示す。
論文 参考訳(メタデータ) (2020-06-12T03:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。