論文の概要: The GCE in a New Light: Disentangling the $\gamma$-ray Sky with Bayesian
Graph Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2006.12504v2
- Date: Wed, 28 Oct 2020 04:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 07:01:28.602407
- Title: The GCE in a New Light: Disentangling the $\gamma$-ray Sky with Bayesian
Graph Convolutional Neural Networks
- Title(参考訳): gce in a new light: ベイズグラフ畳み込みニューラルネットワークによる$\gamma$-ray skyの分離
- Authors: Florian List, Nicholas L. Rodd, Geraint F. Lewis, Ishaan Bhat
- Abstract要約: GCE(Galactic Center Excess)に関する根本的な疑問は、基礎となる構造が点状か滑らかかである。
本研究ではベイジアングラフ畳み込みニューラルネットワークを用いてこの問題を考察する。
背景テンプレートからのフラックス分画のNN推定値がNPTFと一致していることが判明した。
NNは1$sigma$検出しきい値付近でピークとなる点ソースのフラックスを過小評価する傾向があるため、GCEに対して決定的な解決を主張することはない。
- 参考スコア(独自算出の注目度): 5.735035463793008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fundamental question regarding the Galactic Center Excess (GCE) is whether
the underlying structure is point-like or smooth. This debate, often framed in
terms of a millisecond pulsar or annihilating dark matter (DM) origin for the
emission, awaits a conclusive resolution. In this work we weigh in on the
problem using Bayesian graph convolutional neural networks. In simulated data,
our neural network (NN) is able to reconstruct the flux of inner Galaxy
emission components to on average $\sim$0.5%, comparable to the non-Poissonian
template fit (NPTF). When applied to the actual $\textit{Fermi}$-LAT data, we
find that the NN estimates for the flux fractions from the background templates
are consistent with the NPTF; however, the GCE is almost entirely attributed to
smooth emission. While suggestive, we do not claim a definitive resolution for
the GCE, as the NN tends to underestimate the flux of point-sources peaked near
the 1$\sigma$ detection threshold. Yet the technique displays robustness to a
number of systematics, including reconstructing injected DM, diffuse
mismodeling, and unmodeled north-south asymmetries. So while the NN is hinting
at a smooth origin for the GCE at present, with further refinements we argue
that Bayesian Deep Learning is well placed to resolve this DM mystery.
- Abstract(参考訳): GCE(Galactic Center Excess)に関する根本的な問題は、その基盤構造が点状か滑らかかである。
この議論は、しばしばミリ秒のパルサーや、放出の暗黒物質(DM)の起源という観点で表され、決定的な解決を待つ。
本研究では,ベイズグラフ畳み込みニューラルネットワークを用いてこの問題を考察する。
シミュレーションデータでは、ニューラルネットワーク(nn)は内部銀河放出成分のフラックスを平均$\sim$0.5%まで再構成することができ、非ポアソニアンテンプレートフィット(nptf)に匹敵する。
実際の$\textit{Fermi}$-LATデータに適用すると、背景テンプレートからのフラックス分画のNN推定値がNPTFと一致することが分かるが、GCEはほぼ完全に滑らかな放出によるものである。
NNは1$\sigma$検出しきい値付近でピークとなる点ソースのフラックスを過小評価する傾向があるため、GCEに対する決定的な解決は主張しない。
しかし、この技術は、注入されたdmの再構成、拡散的誤モデリング、非モデリングの南北非対称性など、多くの体系的手法に堅牢性を示している。
NNは現在、GCEのスムーズな起源を示唆しているが、さらなる改良により、ベイジアンディープラーニングはこのDMミステリーを解決するのに十分適していると主張している。
関連論文リスト
- Graph Neural Networks Do Not Always Oversmooth [46.57665708260211]
グラフ畳み込みネットワーク (GCN) における過剰スムーシングを, 無限に多くの隠れた特徴の極限におけるガウス過程 (GP) の等価性を用いて検討する。
ネットワークの初期重みが十分に大きな場合、GCNは過度に過度に変化せず、ノード特徴は大きな深さでも情報的のままである。
論文 参考訳(メタデータ) (2024-06-04T12:47:13Z) - Bayesian deep learning for cosmic volumes with modified gravity [0.0]
本研究では,不確実性推定による深層ニューラルネットワークを用いて,修正重力(MG)シミュレーションから宇宙パラメータを抽出することを目的とした。
実空間密度場とパワースペクトルの両BNNを2000ダークマターのみの粒子メッシュのスイートから訓練する。
BNNは$Omega_m$と$sigma_8$のパラメータとMGパラメータとの相関を正確に予測する。
論文 参考訳(メタデータ) (2023-09-01T17:59:06Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Constraining cosmological parameters from N-body simulations with
Variational Bayesian Neural Networks [0.0]
乗法正規化フロー (MNFs) はBNNのパラメータの近似後流の族である。
我々は,標準BNNとフリップアウト推定器についてMNFの比較を行った。
MNFは、変動近似によって導入されたバイアスを緩和する真の後部へのより現実的な予測分布を提供する。
論文 参考訳(メタデータ) (2023-01-09T16:07:48Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Dim but not entirely dark: Extracting the Galactic Center Excess'
source-count distribution with neural nets [0.0]
我々はPSとポアソンの放出を統一的に記述する概念的に新しいアプローチを提案する。
また,Ssim4×10-11テキストカウントテキストcm-2テキストs-1$でピークとなる中央値のソース数分布によって記述されたかすかなGCEが発見された。
論文 参考訳(メタデータ) (2021-07-19T18:00:02Z) - Neural Contextual Bandits without Regret [47.73483756447701]
ニューラルネットワークを用いて未知の報酬関数を近似する文脈的帯域幅のアルゴリズムを提案する。
我々のアプローチは、$tildemathcalO(T-1/2d)$ rateで最適ポリシーに収束し、$d$は文脈の次元であることを示す。
論文 参考訳(メタデータ) (2021-07-07T11:11:34Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Exact posterior distributions of wide Bayesian neural networks [51.20413322972014]
正確なBNN後方収束は、前者のGP限界によって誘導されるものと(弱く)収束することを示す。
実験的な検証のために、リジェクションサンプリングにより、小さなデータセット上で有限BNNから正確なサンプルを生成する方法を示す。
論文 参考訳(メタデータ) (2020-06-18T13:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。