論文の概要: S-R2D2: a spherical extension of the R2D2 deep neural network series paradigm for wide-field radio-interferometric imaging
- arxiv url: http://arxiv.org/abs/2503.01462v1
- Date: Mon, 03 Mar 2025 12:18:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:20:54.144664
- Title: S-R2D2: a spherical extension of the R2D2 deep neural network series paradigm for wide-field radio-interferometric imaging
- Title(参考訳): S-R2D2:広視野電波干渉画像のためのR2D2ディープニューラルネットワークシリーズの球面拡張
- Authors: A. Tajja, A. Aghabiglou, E. Tolley, J-P. Kneib, J-P. Thiran, Y. Wiaux,
- Abstract要約: 近年,無線干渉計(RI)における画像形成のために,「高ダイナミックレンジ画像用残留-残留DNNシリーズ」のR2D2パラダイムが導入された。
広視野望遠鏡の球面撮像要求を満たすための球面撮像拡張S-R2D2を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recently, the R2D2 paradigm, standing for ''Residual-to-Residual DNN series for high-Dynamic-range imaging'', was introduced for image formation in Radio Interferometry (RI) as a learned version of the traditional algorithm CLEAN. The first incarnations of R2D2 are limited to planar imaging on small fields of view, failing to meet the spherical-imaging requirement of modern telescopes observing wide fields. To address this limitation, we propose the spherical-imaging extension S-R2D2. Firstly, as R2D2, S-R2D2 encapsulates its minor cycles in existing 2D-Euclidean deep neural network (DNN) architectures, but adapts its iterative scheme to incorporate the wide-field measurement model mapping a spherical image to visibility data. We implemented this model as the composition of an efficient Fourier-based interpolator mapping the spherical image onto the equatorial plane, with the standard RI operator mapping the equatorial-plane image to visibility data. Importantly, the interpolation step must inevitably be performed at a lower-than-optimal resolution on the plane, to meet the high-resolution requirement on the sphere of wide-field imaging while preserving scalability. Therefore, secondly, we design S-R2D2's DNN training loss to jointly learn to correct the interpolation approximations and identify residual image structures on the sphere, ensuring consistency with the spherical ground truth using the adjoint plane-to-sphere interpolator. Finally, we demonstrate through simulations S-R2D2's capability to perform fast and accurate reconstructions of spherical monochromatic intensity images, across high-resolution, high-dynamic-range settings.
- Abstract(参考訳): 近年,従来のアルゴリズムであるCLEANの学習版として,無線干渉計(RI)における画像形成のためのR2D2パラダイムが導入された。
最初のR2D2の発色は、小さな視野での平面撮影に限られており、広い視野を観測する現代の望遠鏡の球面イメージング要件を満たしていない。
この制限に対処するため、球面拡大S-R2D2を提案する。
まず、R2D2として、S-R2D2は既存の2D-ユークリッドディープニューラルネットワーク(DNN)アーキテクチャで小さなサイクルをカプセル化するが、その反復スキームを適用して球面イメージを可視性データにマッピングする広視野計測モデルを組み込む。
我々は,このモデルを,球面を赤道面にマッピングする効率的なフーリエ型補間器の構成として実装した。
重要なことに、補間ステップは、拡張性を保ちながら広視野イメージングの領域における高解像度要件を満たすために、平面上の最適分解能よりも低い解像度で必然的に実行されなければならない。
第二に、S-R2D2のDNNトレーニング損失を設計し、補間近似の補正を共同で学習し、球面上の残像構造を同定し、隣接平面-球面補間器を用いて球面基底事実との整合性を確保する。
最後に,S-R2D2の球面単色強度画像の高速かつ高精度な再構成を高分解能,高ダイナミックレンジで行うことをシミュレーションにより示す。
関連論文リスト
- GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - R2D2 image reconstruction with model uncertainty quantification in radio astronomy [1.7249361224827533]
Residual-to-Residual'(R2D2)アプローチは、天文学におけるRI(Radio-Interferometric)イメージングのために最近導入された。
R2D2の再構成は、ディープニューラルネットワーク(DNN)の出力として反復的に推定される一連の残像として形成される
本稿では,R2D2画像推定プロセスのロバスト性について,その一連の学習モデルに関連する不確実性について検討する。
論文 参考訳(メタデータ) (2024-03-26T19:10:08Z) - Scalable Non-Cartesian Magnetic Resonance Imaging with R2D2 [6.728969294264806]
本研究では,非電子磁気共鳴画像再構成のための新しい手法を提案する。
我々は「Residual to-Residual DNN series for high range imaging (R2D2)」を利用する。
論文 参考訳(メタデータ) (2024-03-26T17:45:06Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - The R2D2 deep neural network series paradigm for fast precision imaging in radio astronomy [1.7249361224827533]
最近の画像再構成技術は、CLEANの能力をはるかに超えて、画像の精度が著しく向上している。
高ダイナミックレンジイメージングのためのResidual-to-Residual DNNシリーズと呼ばれる新しいディープラーニング手法を導入する。
高精度を実現するためのR2D2の能力は、超大型アレイ(VLA)を用いた様々な画像観測環境においてシミュレーションで実証されている。
論文 参考訳(メタデータ) (2024-03-08T16:57:54Z) - CLEANing Cygnus A deep and fast with R2D2 [1.7249361224827533]
電波干渉計による高ダイナミックレンジイメージングのためのResidual-to-Residual DNNシリーズ(R2D2)と呼ばれる、天文学における合成イメージングのための新しいディープラーニングパラダイムが最近提案されている。
本稿では,R2D2 の学習手法により,CLEAN の解像度に取って代わり,最新の最適化アルゴリズムとプラグアンドプレイアルゴリズムの精度をそれぞれ uSARA と AIRI と一致させることが可能であることを示す。
論文 参考訳(メタデータ) (2023-09-06T18:11:09Z) - VI-Net: Boosting Category-level 6D Object Pose Estimation via Learning
Decoupled Rotations on the Spherical Representations [55.25238503204253]
作業を容易にするために,VI-Netと呼ばれる新しい回転推定ネットワークを提案する。
球面信号を処理するために、SPAtial Spherical Convolutionの新たな設計に基づいて、球面特徴ピラミッドネットワークを構築する。
ベンチマークデータセットの実験により,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2023-08-19T05:47:53Z) - Passive superresolution imaging of incoherent objects [63.942632088208505]
手法は、Hermite-Gaussianモードとその重ね合わせのオーバーコンプリートベースで、画像平面内のフィールドの空間モード成分を測定することで構成される。
ディープニューラルネットワークは、これらの測定からオブジェクトを再構築するために使用される。
論文 参考訳(メタデータ) (2023-04-19T15:53:09Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。