論文の概要: Gravitational-wave parameter estimation with autoregressive neural
network flows
- arxiv url: http://arxiv.org/abs/2002.07656v1
- Date: Tue, 18 Feb 2020 15:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 19:41:15.020069
- Title: Gravitational-wave parameter estimation with autoregressive neural
network flows
- Title(参考訳): 自己回帰ニューラルネットワーク流を用いた重力波パラメータ推定
- Authors: Stephen R. Green, Christine Simpson, Jonathan Gair
- Abstract要約: 深部ニューラルネットワークを用いた重力波データから二元ブラックホール系のパラメータを高速に推定するための自己回帰正規化フローを導入する。
正規化フロー(英: normalizing flow)は、単純な確率分布からより複雑なものへの変換を誘導するために用いられるサンプル空間上の可逆写像である。
可変オートエンコーダフレームワークに自己回帰フローを組み込むことにより,より強力な潜在変数モデルを構築する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the use of autoregressive normalizing flows for rapid
likelihood-free inference of binary black hole system parameters from
gravitational-wave data with deep neural networks. A normalizing flow is an
invertible mapping on a sample space that can be used to induce a
transformation from a simple probability distribution to a more complex one: if
the simple distribution can be rapidly sampled and its density evaluated, then
so can the complex distribution. Our first application to gravitational waves
uses an autoregressive flow, conditioned on detector strain data, to map a
multivariate standard normal distribution into the posterior distribution over
system parameters. We train the model on artificial strain data consisting of
IMRPhenomPv2 waveforms drawn from a five-parameter $(m_1, m_2, \phi_0, t_c,
d_L)$ prior and stationary Gaussian noise realizations with a fixed power
spectral density. This gives performance comparable to current best
deep-learning approaches to gravitational-wave parameter estimation. We then
build a more powerful latent variable model by incorporating autoregressive
flows within the variational autoencoder framework. This model has performance
comparable to Markov chain Monte Carlo and, in particular, successfully models
the multimodal $\phi_0$ posterior. Finally, we train the autoregressive latent
variable model on an expanded parameter space, including also aligned spins
$(\chi_{1z}, \chi_{2z})$ and binary inclination $\theta_{JN}$, and show that
all parameters and degeneracies are well-recovered. In all cases, sampling is
extremely fast, requiring less than two seconds to draw $10^4$ posterior
samples.
- Abstract(参考訳): ニューラルネットワークを用いた重力波データから二元ブラックホール系のパラメータを高速に推定するための自己回帰正規化フローを導入する。
正規化フロー(英: normalizing flow)は、単純な確率分布からより複雑な分布への変換を誘導するために用いられるサンプル空間上の可逆写像である。
重力波への最初の応用は、検出器ひずみデータに基づく自己回帰流を用いて、多変量標準正規分布を系のパラメータの後方分布にマッピングする。
5パラメータの$(m_1,m_2, \phi_0,t_c,d_l)$および定常ガウス雑音を一定パワースペクトル密度で実現したimrフェノムpv2波形からなる人工ひずみデータに基づいてモデルを訓練する。
これにより、重力波パラメータ推定に対する現在の最良のディープラーニングアプローチに匹敵するパフォーマンスが得られる。
次に、可変オートエンコーダフレームワークに自己回帰フローを組み込むことにより、より強力な潜在変数モデルを構築する。
このモデルはマルコフ連鎖モンテカルロに匹敵する性能を有し、特にマルチモーダルの$\phi_0$後方をうまくモデル化した。
最後に、拡張されたパラメータ空間上で自己回帰的潜在変数モデルをトレーニングし、スピン$(\chi_{1z}, \chi_{2z})$とバイナリ傾斜$\theta_{jn}$を含む。
いずれの場合もサンプリングは非常に高速で、後部サンプルを10^4$引き出すのに2秒もかからない。
関連論文リスト
- Accelerating Diffusion Models with Parallel Sampling: Inference at Sub-Linear Time Complexity [11.71206628091551]
拡散モデルは、訓練と評価に費用がかかるため、拡散モデルの推論コストを削減することが大きな目標である。
並列サンプリング手法であるHh2024parallelを用いて拡散モデルを高速化する実験的な成功に触発されて,サンプリングプロセスを各ブロック内に並列化可能なPicard繰り返しを持つ$mathcalO(1)$ブロックに分割することを提案する。
我々の結果は、高速で効率的な高次元データサンプリングの可能性に光を当てた。
論文 参考訳(メタデータ) (2024-05-24T23:59:41Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Deep adaptive sampling for surrogate modeling without labeled data [4.047684532081032]
代理モデリングのための深層適応サンプリング法(textDAS2$)を提案する。
パラメトリック設定では、残留損失関数は非正規化確率密度関数とみなすことができる。
新しいサンプルは残留誘起分布と一致し、洗練されたトレーニングセットは統計誤差をさらに減らすことができる。
論文 参考訳(メタデータ) (2024-02-17T13:44:02Z) - Model-adapted Fourier sampling for generative compressed sensing [7.130302992490975]
測定行列が一意行列からランダムにサブサンプリングされたとき, 生成的圧縮センシングについて検討した。
我々は,textitO(kd| boldsymbolalpha|_22)$の測定精度を改良したモデル適応サンプリング戦略を構築した。
論文 参考訳(メタデータ) (2023-10-08T03:13:16Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Neural Inference of Gaussian Processes for Time Series Data of Quasars [72.79083473275742]
クエーサースペクトルを完全に記述できる新しいモデルを提案する。
また、$textitNeural Inference$というガウス的プロセスパラメータの推論の新しいメソッドも導入しています。
CDRWモデルとNeural Inferenceの組み合わせはベースラインのDRWとMLEを大きく上回っている。
論文 参考訳(メタデータ) (2022-11-17T13:01:26Z) - Sampling Approximately Low-Rank Ising Models: MCMC meets Variational
Methods [35.24886589614034]
一般相互作用が$J$である超キューブ上の二次定値イジングモデルを考える。
我々の一般的な結果は、低ランクのIsingモデルに対する最初のサンプリングアルゴリズムを示唆している。
論文 参考訳(メタデータ) (2022-02-17T21:43:50Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Bayesian multiscale deep generative model for the solution of
high-dimensional inverse problems [0.0]
深層確率的生成モデルに基づく新しいマルチスケールベイズ推論手法が導入された。
この方法は、安定性、効率、精度を示しながら、高次元パラメータ推定を可能にする。
論文 参考訳(メタデータ) (2021-02-04T11:47:21Z) - Uncertainty Inspired RGB-D Saliency Detection [70.50583438784571]
本稿では,データラベリングプロセスから学習することで,RGB-D値検出の不確実性を利用した最初のフレームワークを提案する。
そこで本研究では,確率的RGB-Dサリエンシ検出を実現するために,サリエンシデータラベリングプロセスにインスパイアされた生成アーキテクチャを提案する。
6つの挑戦的RGB-Dベンチマークデータセットの結果から,サリエンシマップの分布を学習する際のアプローチの優れた性能が示された。
論文 参考訳(メタデータ) (2020-09-07T13:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。