論文の概要: Hierarchical Inference of the Lensing Convergence from Photometric
Catalogs with Bayesian Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2211.07807v1
- Date: Tue, 15 Nov 2022 00:29:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:46:46.802676
- Title: Hierarchical Inference of the Lensing Convergence from Photometric
Catalogs with Bayesian Graph Neural Networks
- Title(参考訳): ベイジアングラフニューラルネットワークを用いた測光カタログからのレンズ収束の階層的推論
- Authors: Ji Won Park, Simon Birrer, Madison Ueland, Miles Cranmer, Adriano
Agnello, Sebastian Wagner-Carena, Philip J. Marshall, Aaron Roodman, and the
LSST Dark Energy Science Collaboration
- Abstract要約: 我々は銀河ギャラクシーレンズのスケールを$sim$1$''で変動させ、BGNNを訓練するためにランダムな視線を抽出する。
BGNNは、1000の視線からなる各テストセットに対して、個々の$kappa$aftersを推論し、階層的ベイズモデルで組み合わせる。
トレーニングセットでよくサンプリングされたテストフィールドに対して、BGNNは、正確にはバイアスなく、人口平均の$kappa$を回収する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Bayesian graph neural network (BGNN) that can estimate the weak
lensing convergence ($\kappa$) from photometric measurements of galaxies along
a given line of sight. The method is of particular interest in strong
gravitational time delay cosmography (TDC), where characterizing the "external
convergence" ($\kappa_{\rm ext}$) from the lens environment and line of sight
is necessary for precise inference of the Hubble constant ($H_0$). Starting
from a large-scale simulation with a $\kappa$ resolution of $\sim$1$'$, we
introduce fluctuations on galaxy-galaxy lensing scales of $\sim$1$''$ and
extract random sightlines to train our BGNN. We then evaluate the model on test
sets with varying degrees of overlap with the training distribution. For each
test set of 1,000 sightlines, the BGNN infers the individual $\kappa$
posteriors, which we combine in a hierarchical Bayesian model to yield
constraints on the hyperparameters governing the population. For a test field
well sampled by the training set, the BGNN recovers the population mean of
$\kappa$ precisely and without bias, resulting in a contribution to the $H_0$
error budget well under 1\%. In the tails of the training set with sparse
samples, the BGNN, which can ingest all available information about each
sightline, extracts more $\kappa$ signal compared to a simplified version of
the traditional method based on matching galaxy number counts, which is limited
by sample variance. Our hierarchical inference pipeline using BGNNs promises to
improve the $\kappa_{\rm ext}$ characterization for precision TDC. The
implementation of our pipeline is available as a public Python package, Node to
Joy.
- Abstract(参考訳): 本稿では、銀河の視線上の光度測定から弱いレンズ収束度(\kappa$)を推定できるベイズグラフニューラルネットワーク(BGNN)を提案する。
この方法は強い重力時間遅延宇宙論 (tdc) に特に興味を持ち、レンズ環境と視線からの「外収束」(\kappa_{\rm ext}$) を特徴付けることはハッブル定数(h_0$)の正確な推定に必要である。
大規模なシミュレーションから始まり、$\sim $1$'$の解像度で、ギャラクシー-ギャラクシーレンズのスケールに$\sim$1''$のゆらぎを導入し、bgnnをトレーニングするためにランダムな視線を抽出します。
次に、トレーニング分布と重なる度合いの異なるテストセット上でモデルを評価した。
BGNNは、1000の視線からなるテストセットに対して、個々の$\kappa$aftersを推定し、階層的ベイズモデルで組み合わせて、人口を管理するハイパーパラメータに制約を与える。
トレーニングセットで十分にサンプリングされたテストフィールドでは、bgnnは、正確にバイアスなしで$\kappa$の人口平均を回復し、その結果、$h_0$エラー予算は1\%以下になる。
スパース標本を用いたトレーニングセットの尾部では、各視線について利用可能な情報を全て取り込むことができるBGNNは、サンプルのばらつきによって制限される銀河数数に基づいて従来の手法の単純化版に比べて、さらに$\kappa$シグナルを抽出する。
BGNNを用いた階層型推論パイプラインは、精度TDCのキャラクタリゼーションとして$\kappa_{\rm ext}$を改善することを約束します。
私たちのパイプラインの実装は、node to joyというpythonパッケージとして公開されています。
関連論文リスト
- Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Self-Ensembling Gaussian Splatting for Few-Shot Novel View Synthesis [55.561961365113554]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)に顕著な効果を示した
しかし、3DGSモデルはスパースポーズビューで訓練すると過度に適合する傾向にあり、その一般化能力は新規ビューに制限される。
オーバーフィッティング問題を緩和するために,Self-Ensembling Gaussian Splatting (SE-GS) アプローチを提案する。
提案手法は,NVSの品質向上に寄与し,既存の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2024-10-31T18:43:48Z) - Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Role of Locality and Weight Sharing in Image-Based Tasks: A Sample Complexity Separation between CNNs, LCNs, and FCNs [42.551773746803946]
視覚タスクは局所性と翻訳不変性の特性によって特徴づけられる。
これらのタスクにおける畳み込みニューラルネットワーク(CNN)の優れた性能は、そのアーキテクチャに埋め込まれた局所性や重み付けの帰納的バイアスに起因する。
CNNにおけるこれらのバイアスの統計的利点を、局所連結ニューラルネットワーク(LCN)と完全連結ニューラルネットワーク(FCN)で定量化しようとする試みは、以下のカテゴリに分類される。
論文 参考訳(メタデータ) (2024-03-23T03:57:28Z) - Local primordial non-Gaussianity from the large-scale clustering of photometric DESI luminous red galaxies [5.534428269834764]
我々は、Dark Energy Spectroscopic Instruments(DESI)による局所原始非ガウス性パラメータ$fnl$を制約するために、光赤銀河の角度クラスタリングを用いる。
このサンプルは1200万以上の目標からなり、空の14,000平方度をカバーし、赤方偏移は0.2 z 1.35$である。
我々は, 銀河の絶滅, 調査深度, 天体観測を系統的誤りの主な原因とみなし, 大規模での非宇宙的余剰クラスタリングを緩和するために線形回帰と人工ニューラルネットワークを用いる。
論文 参考訳(メタデータ) (2023-07-04T14:49:23Z) - Generalization and Stability of Interpolating Neural Networks with
Minimal Width [37.908159361149835]
補間系における勾配によって訓練された浅層ニューラルネットワークの一般化と最適化について検討する。
トレーニング損失数は$m=Omega(log4 (n))$ニューロンとニューロンを最小化する。
m=Omega(log4 (n))$のニューロンと$Tapprox n$で、テスト損失のトレーニングを$tildeO (1/)$に制限します。
論文 参考訳(メタデータ) (2023-02-18T05:06:15Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - High-Dimensional Inference over Networks: Linear Convergence and
Statistical Guarantees [20.701475313495884]
エージェントネットワーク上の疎線形回帰を非指向グラフとしてモデル化し,サーバノードを持たない。
分布予測勾配追跡に基づくアルゴリズムの収束率と統計的保証を解析する。
論文 参考訳(メタデータ) (2022-01-21T01:26:08Z) - Large-Scale Gravitational Lens Modeling with Bayesian Neural Networks
for Accurate and Precise Inference of the Hubble Constant [0.0]
我々は、数百の時間遅延重力レンズのモデリングにおける近似ベイズニューラルネットワーク(BNN)の使用について検討する。
200個のテストセットレンズの組み合わせで0.5$textrmkm s-1 textrm Mpc-1$$0.7%$の精度が得られる。
私たちのパイプラインは、レンズモデリングにおけるアンサンブルレベルの体系を探索するための有望なツールです。
論文 参考訳(メタデータ) (2020-11-30T19:00:20Z) - Deep learning for gravitational-wave data analysis: A resampling
white-box approach [62.997667081978825]
我々は、LIGO検出器からの単一干渉計データを用いて、畳み込みニューラルネットワーク(CNN)を用いて、コンパクトなバイナリコレッセンスにおける重力波(GW)信号を検出する。
CNNはノイズを検出するのに非常に正確だが、GW信号のリコールに十分な感度がないため、CNNはGWトリガの生成よりもノイズ低減に適している。
論文 参考訳(メタデータ) (2020-09-09T03:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。