論文の概要: Hierarchical Inference With Bayesian Neural Networks: An Application to
Strong Gravitational Lensing
- arxiv url: http://arxiv.org/abs/2010.13787v3
- Date: Mon, 22 Mar 2021 19:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 20:24:23.583336
- Title: Hierarchical Inference With Bayesian Neural Networks: An Application to
Strong Gravitational Lensing
- Title(参考訳): ベイズ型ニューラルネットワークによる階層的推論:強重力レンズへの応用
- Authors: Sebastian Wagner-Carena, Ji Won Park, Simon Birrer, Philip J.
Marshall, Aaron Roodman, Risa H. Wechsler (for the LSST Dark Energy Science
Collaboration)
- Abstract要約: 我々は、非表現的トレーニングセットの中間で導入されたバイアスを緩和する階層的推論フレームワークを開発する。
何千ものレンズのトレーニングから階層的推論まで、私たちの完全なパイプラインは1日で実行できます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the past few years, approximate Bayesian Neural Networks (BNNs) have
demonstrated the ability to produce statistically consistent posteriors on a
wide range of inference problems at unprecedented speed and scale. However, any
disconnect between training sets and the distribution of real-world objects can
introduce bias when BNNs are applied to data. This is a common challenge in
astrophysics and cosmology, where the unknown distribution of objects in our
Universe is often the science goal. In this work, we incorporate BNNs with
flexible posterior parameterizations into a hierarchical inference framework
that allows for the reconstruction of population hyperparameters and removes
the bias introduced by the training distribution. We focus on the challenge of
producing posterior PDFs for strong gravitational lens mass model parameters
given Hubble Space Telescope (HST) quality single-filter, lens-subtracted,
synthetic imaging data. We show that the posterior PDFs are sufficiently
accurate (i.e., statistically consistent with the truth) across a wide variety
of power-law elliptical lens mass distributions. We then apply our approach to
test data sets whose lens parameters are drawn from distributions that are
drastically different from the training set. We show that our hierarchical
inference framework mitigates the bias introduced by an unrepresentative
training set's interim prior. Simultaneously, given a sufficiently broad
training set, we can precisely reconstruct the population hyperparameters
governing our test distributions. Our full pipeline, from training to
hierarchical inference on thousands of lenses, can be run in a day. The
framework presented here will allow us to efficiently exploit the full
constraining power of future ground- and space-based surveys.
- Abstract(参考訳): 過去数年間、近似ベイズニューラルネットワーク(BNN)は、前例のない速度と規模で幅広い推論問題に対して統計的に一貫した後続を生成できることを実証してきた。
しかし、トレーニングセットと実世界のオブジェクトの分布の切断は、BNNがデータに適用されたときにバイアスを生じる可能性がある。
これは天体物理学と宇宙論において共通の課題であり、宇宙の未知の物体の分布が科学の目標であることが多い。
本研究では,BNNのフレキシブルな後方パラメータ化を階層的推論フレームワークに組み込むことにより,集団のハイパーパラメータの再構築を可能にし,トレーニング分布から生じるバイアスを除去する。
ハッブル宇宙望遠鏡(HST)品質の単一フィルタ, レンズ抽出, 合成画像データから, 強力な重力レンズ質量モデルパラメータの後方PDFを作成することの課題に焦点をあてる。
後方のPDFは、多種多様なパワーロー楕円体レンズ質量分布において十分正確である(すなわち、統計的に真実と一致している)。
次に、レンズパラメータがトレーニングセットと大きく異なる分布から引き出されるデータセットをテストするために、我々のアプローチを適用します。
階層的推論フレームワークは,非表現型トレーニングセットの中間プリミティブによって引き起こされるバイアスを軽減する。
同時に、十分に広いトレーニングセットが与えられれば、テスト分布を規定する人口超パラメータを正確に再構築することができる。
何千ものレンズのトレーニングから階層的推論まで、私たちの完全なパイプラインは1日で実行できます。
ここで提示されたフレームワークは、将来の地上および宇宙ベースのサーベイの完全な制約力を利用することができる。
関連論文リスト
- Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Estimating permeability of 3D micro-CT images by physics-informed CNNs
based on DNS [1.6274397329511197]
本稿では,地質岩のマイクロCTによる透水率予測手法を提案する。
透過性予測専用のCNNのためのトレーニングデータセットは、古典格子ボルツマン法(LBM)によって通常生成される透過性ラベルからなる。
その代わりに、定常ストークス方程式を効率的かつ分散並列に解き、直接数値シミュレーション(DNS)を行う。
論文 参考訳(メタデータ) (2021-09-04T08:43:19Z) - Bayesian Deep Learning for Partial Differential Equation Parameter
Discovery with Sparse and Noisy Data [0.0]
本研究では,ベイジアンニューラルネットワーク(BNN)を用いて,測定データからシステム全体の状態を復元する手法を提案する。
過度に適合することなく、様々な複雑さの物理学を正確に捉えることができることを示す。
我々は、物理学や非線形力学に適用されたいくつかの例について、我々のアプローチを実証する。
論文 参考訳(メタデータ) (2021-08-05T19:43:15Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Large-Scale Gravitational Lens Modeling with Bayesian Neural Networks
for Accurate and Precise Inference of the Hubble Constant [0.0]
我々は、数百の時間遅延重力レンズのモデリングにおける近似ベイズニューラルネットワーク(BNN)の使用について検討する。
200個のテストセットレンズの組み合わせで0.5$textrmkm s-1 textrm Mpc-1$$0.7%$の精度が得られる。
私たちのパイプラインは、レンズモデリングにおけるアンサンブルレベルの体系を探索するための有望なツールです。
論文 参考訳(メタデータ) (2020-11-30T19:00:20Z) - Lessons Learned from the Training of GANs on Artificial Datasets [0.0]
GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2020-07-13T14:51:02Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。