論文の概要: Hybrid Summary Statistics
- arxiv url: http://arxiv.org/abs/2410.07548v1
- Date: Thu, 10 Oct 2024 02:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 16:26:23.049895
- Title: Hybrid Summary Statistics
- Title(参考訳): ハイブリッド概要統計
- Authors: T. Lucas Makinen, Ce Sui, Benjamin D. Wandelt, Natalia Porqueres, Alan Heavens,
- Abstract要約: 本稿では,厳密なシミュレーションに基づく推論のために,パラメータ空間上でスパースにサンプリングされたトレーニングセットから高情報後部を捕捉する方法を提案する。
これらの統計データをニューラルネットワーク出力で拡張することにより、相互情報の最大化が、ニューラルネットワーク単独や既存の要約との結合よりも情報抽出を改善することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a way to capture high-information posteriors from training sets that are sparsely sampled over the parameter space for robust simulation-based inference. In physical inference problems, we can often apply domain knowledge to define traditional summary statistics to capture some of the information in a dataset. We show that augmenting these statistics with neural network outputs to maximise the mutual information improves information extraction compared to neural summaries alone or their concatenation to existing summaries and makes inference robust in settings with low training data. We introduce 1) two loss formalisms to achieve this and 2) apply the technique to two different cosmological datasets to extract non-Gaussian parameter information.
- Abstract(参考訳): 本稿では,厳密なシミュレーションに基づく推論のために,パラメータ空間上でスパースにサンプリングされたトレーニングセットから高情報後部を捕捉する方法を提案する。
物理推論問題では、従来の要約統計を定義するためにドメイン知識を適用して、データセット内の情報のいくつかをキャプチャすることができる。
これらの統計データをニューラルネットワーク出力で拡張することにより、相互情報の最大化が、ニューラルネットワーク単独や既存の要約との結合よりも情報抽出を改善し、トレーニングデータが少ない設定で推論を堅牢にすることを示す。
紹介
1)これを実現するための2つの損失形式
2) この手法を2つの異なる宇宙データセットに適用し,非ガウスパラメータ情報を抽出する。
関連論文リスト
- Hybrid summary statistics: neural weak lensing inference beyond the power spectrum [0.0]
本稿では,このような物理に基づく要約を,圧縮された要約統計の集合によって拡張するハイブリッド手法を提案する。
結果の統計は、モデルパラメータのシミュレーションベースまたは暗黙の推論に非常に強力である。
論文 参考訳(メタデータ) (2024-07-26T17:59:26Z) - Sparse Function-space Representation of Neural Networks [23.4128813752424]
ディープニューラルネットワーク(NN)は、不確実性推定が欠如していることや、新しいデータを組み込むのに苦労していることが知られている。
本稿では,NNを重み空間から関数空間に変換することにより,これらの問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-09-05T12:56:35Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Look beyond labels: Incorporating functional summary information in
Bayesian neural networks [11.874130244353253]
予測確率に関する要約情報を組み込むための簡単な手法を提案する。
利用可能な要約情報は、拡張データとして組み込まれ、ディリクレプロセスでモデル化される。
本稿では,タスクの難易度やクラス不均衡をモデルに示す方法について述べる。
論文 参考訳(メタデータ) (2022-07-04T07:06:45Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Learning Summary Statistics for Bayesian Inference with Autoencoders [58.720142291102135]
我々は,ディープニューラルネットワークに基づくオートエンコーダの内部次元を要約統計として利用する。
パラメータ関連情報を全て符号化するエンコーダのインセンティブを作成するため,トレーニングデータの生成に使用した暗黙的情報にデコーダがアクセスできるようにする。
論文 参考訳(メタデータ) (2022-01-28T12:00:31Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Lightweight Data Fusion with Conjugate Mappings [11.760099863897835]
本稿では,構造化確率的グラフィカルモデルの解釈可能性とニューラルネットワークの柔軟性を組み合わせたデータ融合手法を提案する。
提案手法は,2種類の情報を用いた遅延変数の後方解析を重視した軽量データ融合(LDF)である。
論文 参考訳(メタデータ) (2020-11-20T19:47:13Z) - Set Based Stochastic Subsampling [85.5331107565578]
本稿では,2段階間ニューラルサブサンプリングモデルを提案する。
画像分類,画像再構成,機能再構築,少数ショット分類など,様々なタスクにおいて,低いサブサンプリング率で関連ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-25T07:36:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。