論文の概要: A unified framework for 21cm tomography sample generation and parameter
inference with Progressively Growing GANs
- arxiv url: http://arxiv.org/abs/2002.07940v1
- Date: Wed, 19 Feb 2020 00:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 14:39:46.618544
- Title: A unified framework for 21cm tomography sample generation and parameter
inference with Progressively Growing GANs
- Title(参考訳): 進行成長ganを用いた21cmトモグラフィ試料生成とパラメータ推定の統一フレームワーク
- Authors: Florian List and Geraint F. Lewis
- Abstract要約: EoR(Epoch of Reionisation)では,特定のタイプのニューラルネットワーク,PGGAN(Progressively Growing Generative Adversarial Network)を用いて,21cmの輝度温度の現実的なトモグラフィ画像を生成する。
ネットワークは新しいサンプルを1秒で$sim 3'$の解像度で生成し(ラップトップCPU上で)、その結果のグローバルな21cm信号、パワースペクトル、ピクセル分布関数はトレーニングデータのそれとよく一致する。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating a database of 21cm brightness temperature signals from the Epoch of
Reionisation (EoR) for an array of reionisation histories is a complex and
computationally expensive task, given the range of astrophysical processes
involved and the possibly high-dimensional parameter space that is to be
probed. We utilise a specific type of neural network, a Progressively Growing
Generative Adversarial Network (PGGAN), to produce realistic tomography images
of the 21cm brightness temperature during the EoR, covering a continuous
three-dimensional parameter space that models varying X-ray emissivity, Lyman
band emissivity, and ratio between hard and soft X-rays. The GPU-trained
network generates new samples at a resolution of $\sim 3'$ in a second (on a
laptop CPU), and the resulting global 21cm signal, power spectrum, and pixel
distribution function agree well with those of the training data, taken from
the 21SSD catalogue \citep{Semelin2017}. Finally, we showcase how a trained
PGGAN can be leveraged for the converse task of inferring parameters from 21cm
tomography samples via Approximate Bayesian Computation.
- Abstract(参考訳): イオン化のEpoch of Reionisation (EoR) から21cmの明るさの温度信号のデータベースを作成することは、関連する天体物理過程の範囲と、調査される可能性のある高次元パラメータ空間を考えると、複雑な計算コストのかかる作業である。
我々は、特定のタイプのニューラルネットワーク、PGGAN(Progressively Growing Generative Adversarial Network)を利用して、EoR中の21cmの明るさ温度の現実的なトモグラフィー画像を生成し、X線放射率、ライマンバンド放射率、硬X線と軟X線との比をモデル化した連続した3次元パラメータ空間をカバーする。
GPUトレーニングされたネットワークは、1秒で$\sim 3'$の解像度で新しいサンプルを生成し(ラップトップCPU上で)、その結果得られたグローバルな21cm信号、パワースペクトル、ピクセル分布関数は、21SSDカタログ \citep{Semelin2017}から取得したトレーニングデータとよく一致する。
最後に,21cmトモグラフィ標本からのパラメータを近似ベイズ計算により推定する逆タスクにおいて,トレーニングされたPGGANをどのように活用できるかを示す。
関連論文リスト
- LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Sionna RT: Differentiable Ray Tracing for Radio Propagation Modeling [65.17711407805756]
Sionnaは、リンクレベルのシミュレーションをベースとしたGPUアクセラレーションのオープンソースライブラリである。
リリース v0.14 以降、電波伝搬のシミュレーションのために微分可能なレイトレーサ (RT) を統合している。
論文 参考訳(メタデータ) (2023-03-20T13:40:11Z) - An Unpaired Cross-modality Segmentation Framework Using Data
Augmentation and Hybrid Convolutional Networks for Segmenting Vestibular
Schwannoma and Cochlea [7.7150383247700605]
CrossMoDAの課題は、未ラベル高分解能T2スキャンで前庭神経癌(VS)腫瘍とコチェリー領域を自動的に分離することである。
2022年版では、セグメンテーションタスクを多施設スキャンで拡張している。
本稿では,データ拡張とハイブリッド畳み込みネットワークを用いた非対向型クロスモーダルセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T01:15:33Z) - Megapixel Image Generation with Step-Unrolled Denoising Autoencoders [5.145313322824774]
本稿では,サンプルの解像度を高くする手法と,トレーニングとサンプリングの計算要求を低減させる手法の組み合わせを提案する。
例えば、ベクトル量子化GAN(VQ-GAN)、高レベルの損失 - しかし知覚的に重要 - 圧縮 - が可能なベクトル量子化(VQ)モデル、時間ガラストランスフォーマー、高スケールの自己アテンションモデル、非自己回帰(NAR)テキスト生成モデルであるステップ制御型デノイングオートエンコーダ(SUNDAE)などがある。
提案するフレームワークは,高解像度(1024×1024$)までスケールし,(高速で)トレーニングを行う。
論文 参考訳(メタデータ) (2022-06-24T15:47:42Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Conditional Generation of Synthetic Geospatial Images from Pixel-level
and Feature-level Inputs [0.0]
画素レベル条件 (PLC) と特徴レベル条件 (FLC) を同時に条件付きで合成する条件生成モデル VAE-Info-cGAN を提案する。
提案モデルでは,道路網の時間的表現のみを条件に,異なる地理的位置をまたいだ様々な形態のマクロアグリゲーションを高精度に生成することができる。
論文 参考訳(メタデータ) (2021-09-11T06:58:19Z) - Toward Generating Synthetic CT Volumes using a 3D-Conditional Generative
Adversarial Network [1.5846249630722484]
雑音および/または画素近似からボクセル内の3次元CTスキャンを生成することができる条件付き生成逆ネットワーク(cGAN)アーキテクチャ。
条件付きcGANは3次元CTボリュームを生成するための抽出可能なアプローチであると考えている。
論文 参考訳(メタデータ) (2021-04-02T12:25:37Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z) - VAE-Info-cGAN: Generating Synthetic Images by Combining Pixel-level and
Feature-level Geospatial Conditional Inputs [0.0]
画素レベル(PLC)と特徴レベル(FLC)を同時に条件付けした意味的リッチな画像を合成するための条件生成モデルを提案する。
GPSデータセットを用いた実験では,提案モデルが地理的に異なる場所にまたがる様々な形態のマクロアグリゲーションを正確に生成できることが示されている。
論文 参考訳(メタデータ) (2020-12-08T03:46:19Z) - Conditioning Trick for Training Stable GANs [70.15099665710336]
本稿では,GANトレーニング中の不安定性問題に対応するため,ジェネレータネットワークに正規性から逸脱する条件付け手法を提案する。
我々は、生成元をシュア分解のスペクトル領域で計算された実サンプルの正規化関数から逸脱するように強制する。
論文 参考訳(メタデータ) (2020-10-12T16:50:22Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。