論文の概要: Hybrid summary statistics: neural weak lensing inference beyond the power spectrum
- arxiv url: http://arxiv.org/abs/2407.18909v1
- Date: Fri, 26 Jul 2024 17:59:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 12:39:55.403146
- Title: Hybrid summary statistics: neural weak lensing inference beyond the power spectrum
- Title(参考訳): ハイブリッド要約統計:パワースペクトルを超えた神経弱レンズ推論
- Authors: T. Lucas Makinen, Tom Charnock, Natalia Porqueres, Axel Lapel, Alan Heavens, Benjamin D. Wandelt,
- Abstract要約: 本稿では,このような物理に基づく要約を,圧縮された要約統計の集合によって拡張するハイブリッド手法を提案する。
結果の統計は、モデルパラメータのシミュレーションベースまたは暗黙の推論に非常に強力である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In inference problems, we often have domain knowledge which allows us to define summary statistics that capture most of the information content in a dataset. In this paper, we present a hybrid approach, where such physics-based summaries are augmented by a set of compressed neural summary statistics that are optimised to extract the extra information that is not captured by the predefined summaries. The resulting statistics are very powerful inputs to simulation-based or implicit inference of model parameters. We apply this generalisation of Information Maximising Neural Networks (IMNNs) to parameter constraints from tomographic weak gravitational lensing convergence maps to find summary statistics that are explicitly optimised to complement angular power spectrum estimates. We study several dark matter simulation resolutions in low- and high-noise regimes. We show that i) the information-update formalism extracts at least $3\times$ and up to $8\times$ as much information as the angular power spectrum in all noise regimes, ii) the network summaries are highly complementary to existing 2-point summaries, and iii) our formalism allows for networks with smaller, physically-informed architectures to match much larger regression networks with far fewer simulations needed to obtain asymptotically optimal inference.
- Abstract(参考訳): 推論問題では、データセット内の情報コンテンツの大部分をキャプチャする要約統計を定義できるドメイン知識がよくあります。
本稿では, 既定の要約では得られない余分な情報を抽出するために最適化された, 圧縮されたニューラルネットワークの要約統計によって, 物理に基づく要約が拡張されるハイブリッド手法を提案する。
結果の統計は、モデルパラメータのシミュレーションベースまたは暗黙の推論に対する非常に強力な入力である。
我々は,この情報最大化ニューラルネットワーク(IMNN)の一般化をトモグラフィ弱重力レンズ収束マップからの制約パラメータに適用し,角スペクトル推定を補完するために明示的に最適化された要約統計を求める。
暗黒物質シミュレーションの低雑音・高雑音状態における分解能について検討した。
私たちはそれを示します
一 情報更新形式は、すべての騒音体制における角パワースペクトルに匹敵する情報を少なくとも三時以上及び八時まで抽出する。
二 ネットワーク要約は、既存の二点要約を極めて補完するものであつて、
三 私たちのフォーマリズムは、より小さく、物理的にインフォームドされたアーキテクチャを持つネットワークを、漸近的に最適な推論を得るためには、はるかに少ないシミュレーションで、はるかに大きな回帰ネットワークと一致させることができる。
関連論文リスト
- Hybrid Summary Statistics [0.0]
本稿では,厳密なシミュレーションに基づく推論のために,パラメータ空間上でスパースにサンプリングされたトレーニングセットから高情報後部を捕捉する方法を提案する。
これらの統計データをニューラルネットワーク出力で拡張することにより、相互情報の最大化が、ニューラルネットワーク単独や既存の要約との結合よりも情報抽出を改善することを示す。
論文 参考訳(メタデータ) (2024-10-10T02:41:23Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - The Cosmic Graph: Optimal Information Extraction from Large-Scale
Structure using Catalogues [0.0]
本稿では,グラフとして集計された離散カタログデータに対して,宇宙情報を定量化するための暗黙的なアプローチを提案する。
我々は、グラフ表現の関数としてフィッシャー情報抽出を定量化するために、IMNN(Information Maximising Neural Networks)を用いる。
論文 参考訳(メタデータ) (2022-07-11T21:34:40Z) - Look beyond labels: Incorporating functional summary information in
Bayesian neural networks [11.874130244353253]
予測確率に関する要約情報を組み込むための簡単な手法を提案する。
利用可能な要約情報は、拡張データとして組み込まれ、ディリクレプロセスでモデル化される。
本稿では,タスクの難易度やクラス不均衡をモデルに示す方法について述べる。
論文 参考訳(メタデータ) (2022-07-04T07:06:45Z) - A Free Lunch with Influence Functions? Improving Neural Network
Estimates with Concepts from Semiparametric Statistics [41.99023989695363]
ニューラルネットワークや機械学習アルゴリズムの改善に使用される半パラメトリック理論の可能性を探る。
本稿では,単一アーキテクチャを用いてアンサンブルの柔軟性と多様性を求めるニューラルネットワーク手法であるMultiNetを提案する。
論文 参考訳(メタデータ) (2022-02-18T09:35:51Z) - Learning Summary Statistics for Bayesian Inference with Autoencoders [58.720142291102135]
我々は,ディープニューラルネットワークに基づくオートエンコーダの内部次元を要約統計として利用する。
パラメータ関連情報を全て符号化するエンコーダのインセンティブを作成するため,トレーニングデータの生成に使用した暗黙的情報にデコーダがアクセスできるようにする。
論文 参考訳(メタデータ) (2022-01-28T12:00:31Z) - ECQ$^{\text{x}}$: Explainability-Driven Quantization for Low-Bit and
Sparse DNNs [13.446502051609036]
我々はディープニューラルネットワーク(DNN)のための新しい量子化パラダイムを開発し、記述する。
本手法は,説明可能なAI(XAI)の概念と情報理論の概念を活用する。
最終的な目標は、最高の情報内容の量子化クラスタにおいて、最も関連性の高い重みを維持することである。
論文 参考訳(メタデータ) (2021-09-09T12:57:06Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。