論文の概要: Plug-and-Play Regularization on Magnitude with Deep Priors for 3D Near-Field MIMO Imaging
- arxiv url: http://arxiv.org/abs/2312.16024v2
- Date: Wed, 13 Mar 2024 22:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-16 01:52:29.044984
- Title: Plug-and-Play Regularization on Magnitude with Deep Priors for 3D Near-Field MIMO Imaging
- Title(参考訳): 3次元近接場MIMO画像の深部優先画像によるプラグ・アンド・プレイ規則化
- Authors: Okyanus Oral, Figen S. Oktem,
- Abstract要約: 近接場レーダイメージングシステムは、隠蔽兵器の検出や医療診断など、幅広い用途で使用されている。
3次元複素数値反射率の問題は、その大きさに対して正則化を強制することによるものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Near-field radar imaging systems are used in a wide range of applications such as concealed weapon detection and medical diagnosis. In this paper, we consider the problem of reconstructing the three-dimensional (3D) complex-valued reflectivity distribution of the near-field scene by enforcing regularization on its magnitude. We solve this inverse problem by using the alternating direction method of multipliers (ADMM) framework. For this, we provide a general expression for the proximal mapping associated with such regularization functionals. This equivalently corresponds to the solution of a complex-valued denoising problem which involves regularization on the magnitude. By utilizing this expression, we develop a novel and efficient plug-and-play (PnP) reconstruction method that consists of simple update steps. Due to the success of data-adaptive deep priors in imaging, we also train a 3D deep denoiser to exploit within the developed PnP framework. The effectiveness of the developed approach is demonstrated for multiple-input multiple-output (MIMO) imaging under various compressive and noisy observation scenarios using both simulated and experimental data. The performance is also compared with the commonly used direct inversion and sparsity-based reconstruction approaches. The results demonstrate that the developed technique not only provides state-of-the-art performance for 3D real-world targets, but also enables fast computation. Our approach provides a unified general framework to effectively handle arbitrary regularization on the magnitude of a complex-valued unknown and is equally applicable to other radar image formation problems (including SAR).
- Abstract(参考訳): 近接場レーダイメージングシステムは、隠蔽兵器の検出や医療診断など、幅広い用途で使用されている。
本稿では,3次元複素数値反射率分布の3次元再構成について,その大きさを正規化することで検討する。
乗算器の交互方向法(ADMM)を用いて,この逆問題を解決する。
これに対し、そのような正規化関数に関連する近位写像の一般表現を提供する。
これは、その大きさの正則化を含む複素数値デノナイジング問題の解と等価である。
この表現を利用することで、簡単な更新ステップからなる、新規で効率的なプラグアンドプレイ(PnP)再構成手法を開発した。
データ適応型深層画像撮影の成功により,開発したPnPフレームワーク内での3次元深層デノイザの活用を訓練する。
本手法の有効性は, シミュレーションデータと実験データの両方を用いて, 様々な圧縮・雑音観測シナリオ下でのマルチインプット・マルチアウトプット(MIMO)イメージングにおいて実証された。
この性能は、一般的に使われる直接反転と疎性に基づく再構成手法と比較される。
その結果, 開発技術は3次元実世界の目標に対して最先端の性能を提供するだけでなく, 高速な計算を可能にしていることがわかった。
提案手法は,複素数値未知量の任意の正規化を効果的に処理するための統一的な汎用フレームワークを提供し,他のレーダ画像形成問題(SARを含む)にも等しく適用可能である。
関連論文リスト
- Efficient Physics-Based Learned Reconstruction Methods for Real-Time 3D
Near-Field MIMO Radar Imaging [0.0]
近距離場多重出力多重出力レーダイメージングシステム(MIMO)は近年注目されている。
本稿では,リアルタイム近接場イメージングのための非定位深層学習に基づく新しい再構成手法を提案する。
ゴールは、設定時の計算コストを低くして、高画質を実現することである。
論文 参考訳(メタデータ) (2023-12-28T11:05:36Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - GIR: 3D Gaussian Inverse Rendering for Relightable Scene Factorization [76.52007427483396]
GIRは3次元ガウス逆レンダリング法である。
本手法は,多視点画像から物体の材料特性,照明,形状を推定するために3次元ガウス法を用いる。
論文 参考訳(メタデータ) (2023-12-08T16:05:15Z) - RNb-NeuS: Reflectance and Normal-based Multi-View 3D Reconstruction [0.9842069223476793]
本稿では,光度ステレオにより得られる多視点反射率と正規写像を統合するための多目的パラダイムを提案する。
提案手法では, 反射率と正規度の画素ワイドな共同パラメータ化を, 放射光のベクトルとして用いた。
これは、高い曲率または低い視認性を持つ領域の詳細な3D再構成を大幅に改善する。
論文 参考訳(メタデータ) (2023-12-02T19:49:27Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [54.56928482110888]
本稿では,まず3次元ガウス表現を同時局所化・マッピングシステムで利用するtextbfGS-SLAM$を紹介する。
提案手法では,地図の最適化とRGB-D再レンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - Generalization of pixel-wise phase estimation by CNN and improvement of
phase-unwrapping by MRF optimization for one-shot 3D scan [0.621405559652172]
シングルパターンプロジェクション(ワンショット3Dスキャン)を用いたアクティブステレオ技術は、産業や医療目的などから広く注目を集めている。
ワンショット3Dスキャンの深刻な欠点はスパース再構成である。
パターンが正規かつ周期的であれば,任意のタイプの静的パターンに適用可能なワンショットスキャンのための画素ワイズ手法を提案する。
論文 参考訳(メタデータ) (2023-09-26T10:45:04Z) - Unfolding Framework with Prior of Convolution-Transformer Mixture and
Uncertainty Estimation for Video Snapshot Compressive Imaging [7.601695814245209]
本稿では, 連続する高速フレームを異なるマスクで変調し, 単一の計測でキャプチャする, ビデオスナップショット圧縮画像(SCI)の問題点について考察する。
最適化アルゴリズムとニューラルネットワークを組み合わせることで、ディープ・アンフォールディング・ネットワーク(DUN)は、逆問題の解決において大きな成果を上げた。
論文 参考訳(メタデータ) (2023-06-20T06:25:48Z) - Orthogonal Matrix Retrieval with Spatial Consensus for 3D Unknown-View
Tomography [58.60249163402822]
未知視トモグラフィ(UVT)は、未知のランダムな向きで2次元投影から3次元密度マップを再構成する。
提案したOMRはより堅牢で、従来の最先端のOMRアプローチよりも大幅に性能が向上している。
論文 参考訳(メタデータ) (2022-07-06T21:40:59Z) - Data-Driven Interpolation for Super-Scarce X-Ray Computed Tomography [1.3535770763481902]
浅層ニューラルネットワークを訓練し、隣接する2つの取得を中間角度で推定された測定値に組み合わせる。
これにより、標準的な方法で再構成できる拡張された測定シーケンスが得られる。
バイオメディカルデータセットを用いた2次元および3次元イメージングの結果を得た。
論文 参考訳(メタデータ) (2022-05-16T15:42:41Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。