論文の概要: Ultra-fast high-dynamic range imaging of Cygnus A with the R2D2 deep
neural network series
- arxiv url: http://arxiv.org/abs/2309.03291v2
- Date: Thu, 21 Dec 2023 10:08:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 18:36:14.162900
- Title: Ultra-fast high-dynamic range imaging of Cygnus A with the R2D2 deep
neural network series
- Title(参考訳): R2D2ディープニューラルネットワークによるCygnus Aの超高速高ダイナミックレンジイメージング
- Authors: Aghabiglou A, Chu C S, Jackson A, Dabbech A, Wiaux Y
- Abstract要約: 天文学における電波干渉計(RI)による高分解能高ダイナミックレンジイメージングのための新しいAI手法を提案する。
R2D2は、ハイブリッドディープニューラルネットワーク(DNN)とデータ一貫性更新に依存する、モデルベースのデータ駆動アプローチである。
我々は、超大型アレイ(VLA)によるS帯の電波銀河Cygnus Aの高感度観測における単色強度イメージングの利用を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel AI approach for high-resolution high-dynamic range
synthesis imaging by radio interferometry (RI) in astronomy. R2D2, standing for
``{R}esidual-to-{R}esidual {D}NN series for high-{D}ynamic range imaging'', is
a model-based data-driven approach relying on hybrid deep neural networks
(DNNs) and data-consistency updates. Its reconstruction is built as a series of
residual images estimated as the outputs of DNNs, each taking the residual
dirty image of the previous iteration as an input. The approach can be
interpreted as a learned version of a matching pursuit approach, whereby model
components are iteratively identified from residual dirty images, and of which
CLEAN is a well-known example. We propose two variants of the R2D2 model, built
upon two distinctive DNN architectures: a standard U-Net, and a novel unrolled
architecture. We demonstrate their use for monochromatic intensity imaging on
highly-sensitive observations of the radio galaxy Cygnus A at S band, from the
Very Large Array (VLA). R2D2 is validated against CLEAN and the recent RI
algorithms AIRI and uSARA, which respectively inject a learned implicit
regularization and an advanced handcrafted sparsity-based regularization into
the RI data. With only few terms in its series, the R2D2 model is able to
deliver high-precision imaging, superseding the resolution of CLEAN, and
matching the precision of AIRI and uSARA. In terms of computational efficiency,
R2D2 runs at a fraction of the cost of AIRI and uSARA, and is also faster than
CLEAN, opening the door to near real-time precision imaging in RI.
- Abstract(参考訳): 天文学における電波干渉計(RI)による高分解能高ダイナミックレンジ合成イメージングのための新しいAI手法を提案する。
R2D2は‘{R}esidual-to-{R}esidual {D}NN series for high-{D}ynamic range imaging'’の略で、ハイブリッドディープニューラルネットワーク(DNN)とデータ一貫性更新に依存するモデルベースのデータ駆動アプローチである。
その再構成は、DNNの出力として推定される残像の連続として構築され、それぞれが前回の残像の残像を入力とする。
この手法は、モデルコンポーネントが残留汚い画像から反復的に識別され、CLEANがよく知られた例であるマッチング追従アプローチの学習版として解釈することができる。
本稿では,標準のU-Netと新しいアンロールアーキテクチャの2つの特徴を持つDNNアーキテクチャ上に構築されたR2D2モデルの2つの変種を提案する。
我々は、超大型アレイ(VLA)によるS帯の電波銀河Cygnus Aの高感度観測における単色強度イメージングの応用を実証した。
R2D2 は CLEAN と最近の RI アルゴリズム AIRI と uSARA に対して検証され、それぞれ学習された暗黙の正則化と高度な手作りのスパーシティベース正則化をRI データに注入する。
r2d2モデルは、ほんのわずかな期間で高精度の画像撮影が可能で、クリーンの解像度に取って代わり、airiとusaraの精度にマッチする。
計算効率の面では、R2D2はAIRIとuSARAのコストのごく一部で動作し、CLEANよりも高速で、RIのほぼリアルタイムの精度画像にドアを開く。
関連論文リスト
- The R2D2 deep neural network series paradigm for fast precision imaging
in radio astronomy [1.8843687952462742]
最近の画像再構成技術は、CLEANの能力を超えて、画像の精度を著しく向上させる。
高ダイナミックレンジイメージングのためのResidual-to-Residual DNNシリーズと呼ばれる新しいディープラーニング手法を導入する。
高精度を実現するためのR2D2の能力は、超大型アレイ(VLA)を用いた様々な画像観測環境においてシミュレーションで実証されている。
論文 参考訳(メタデータ) (2024-03-08T16:57:54Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - AliasNet: Alias Artefact Suppression Network for Accelerated
Phase-Encode MRI [4.752084030395196]
スパース再構成はMRIの重要な側面であり、取得時間を短縮し、空間時間分解能を改善するのに役立つ。
1D AliasNetモジュールと既存の2Dディープラーニング(DL)リカバリ技術を組み合わせることで、画像の品質が向上することが実証された。
論文 参考訳(メタデータ) (2023-02-17T13:16:17Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Image reconstruction algorithms in radio interferometry: from
handcrafted to learned denoisers [7.1439425093981574]
本稿では,プラグイン・アンド・プレイ方式にヒントを得た,無線干渉計測のための新しい画像再構成アルゴリズムを提案する。
このアプローチは、ディープニューラルネットワーク(DNN)をノイズとしてトレーニングすることで、事前の画像モデルを学ぶことで構成される。
学習したデノイザをフォワード-バックワード最適化アルゴリズムにプラグインし、デノイザのステップをグラデーション-ディフレッシュなデータ-忠実度ステップで交互に繰り返す単純な反復構造を与える。
論文 参考訳(メタデータ) (2022-02-25T20:26:33Z) - Unsupervised Single Image Super-resolution Under Complex Noise [60.566471567837574]
本稿では,一般のSISRタスクを未知の劣化で扱うためのモデルベースunsupervised SISR法を提案する。
提案手法は, より小さなモデル (0.34M vs. 2.40M) だけでなく, より高速な技術 (SotA) 法 (約1dB PSNR) の現況を明らかに超えることができる。
論文 参考訳(メタデータ) (2021-07-02T11:55:40Z) - Group-based Bi-Directional Recurrent Wavelet Neural Networks for Video
Super-Resolution [4.9136996406481135]
ビデオ超解像(VSR)は、低解像度(LR)フレームから高解像度(HR)フレームを推定することを目的としている。
VSRの鍵となる課題は、フレーム内の空間的相関と連続フレーム間の時間的依存を効果的に活用することにある。
論文 参考訳(メタデータ) (2021-06-14T06:36:13Z) - UltraSR: Spatial Encoding is a Missing Key for Implicit Image
Function-based Arbitrary-Scale Super-Resolution [74.82282301089994]
本研究では,暗黙的イメージ関数に基づく,シンプルで効果的な新しいネットワーク設計であるUltraSRを提案する。
空間符号化は,次の段階の高精度暗黙的画像機能に対する欠落鍵であることを示す。
UltraSRは、すべての超解像スケールでDIV2Kベンチマークに最新のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2021-03-23T17:36:42Z) - Adversarial Generation of Continuous Images [31.92891885615843]
本稿では,INRに基づく画像デコーダ構築のための2つの新しいアーキテクチャ手法を提案する。
私たちは、最先端の連続画像GANを構築するためにそれらを使用します。
提案したINR-GANアーキテクチャは連続画像生成装置の性能を数倍改善する。
論文 参考訳(メタデータ) (2020-11-24T11:06:40Z) - Real Image Super Resolution Via Heterogeneous Model Ensemble using
GP-NAS [63.48801313087118]
本稿では,高密度スキップ接続を有するディープ残差ネットワークを用いた画像超解像法を提案する。
提案手法は、AIM 2020 Real Image Super-Resolution Challengeの3トラックで1位を獲得した。
論文 参考訳(メタデータ) (2020-09-02T22:33:23Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。