論文の概要: Seeing Clearly and Deeply: An RGBD Imaging Approach with a Bio-inspired Monocentric Design
- arxiv url: http://arxiv.org/abs/2510.25314v1
- Date: Wed, 29 Oct 2025 09:27:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.301582
- Title: Seeing Clearly and Deeply: An RGBD Imaging Approach with a Bio-inspired Monocentric Design
- Title(参考訳): バイオインスパイアされたモノセントリックデザインによるRGBDイメージングアプローチ
- Authors: Zongxi Yu, Xiaolong Qian, Shaohua Gao, Qi Jiang, Yao Gao, Kailun Yang, Kaiwei Wang,
- Abstract要約: バイオインスパイアされた全球型単心レンズを導入し,その周囲にBMI(Bionic Monocentric Imaging)フレームワークを構築した。
この光学設計は、複雑な回折要素やフリーフォーム要素を必要とせずに、深度変化のポイントスプレッド関数(PSF)に奥行きをエンコードする。
深さ推定では、Abs Relが0.026、RMSEが0.130となり、ソフトウェアのみのアプローチよりも顕著に優れている。
- 参考スコア(独自算出の注目度): 17.925866379655208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving high-fidelity, compact RGBD imaging presents a dual challenge: conventional compact optics struggle with RGB sharpness across the entire depth-of-field, while software-only Monocular Depth Estimation (MDE) is an ill-posed problem reliant on unreliable semantic priors. While deep optics with elements like DOEs can encode depth, they introduce trade-offs in fabrication complexity and chromatic aberrations, compromising simplicity. To address this, we first introduce a novel bio-inspired all-spherical monocentric lens, around which we build the Bionic Monocentric Imaging (BMI) framework, a holistic co-design. This optical design naturally encodes depth into its depth-varying Point Spread Functions (PSFs) without requiring complex diffractive or freeform elements. We establish a rigorous physically-based forward model to generate a synthetic dataset by precisely simulating the optical degradation process. This simulation pipeline is co-designed with a dual-head, multi-scale reconstruction network that employs a shared encoder to jointly recover a high-fidelity All-in-Focus (AiF) image and a precise depth map from a single coded capture. Extensive experiments validate the state-of-the-art performance of the proposed framework. In depth estimation, the method attains an Abs Rel of 0.026 and an RMSE of 0.130, markedly outperforming leading software-only approaches and other deep optics systems. For image restoration, the system achieves an SSIM of 0.960 and a perceptual LPIPS score of 0.082, thereby confirming a superior balance between image fidelity and depth accuracy. This study illustrates that the integration of bio-inspired, fully spherical optics with a joint reconstruction algorithm constitutes an effective strategy for addressing the intrinsic challenges in high-performance compact RGBD imaging. Source code will be publicly available at https://github.com/ZongxiYu-ZJU/BMI.
- Abstract(参考訳): 高忠実でコンパクトなRGBDイメージングは、フィールドの奥行き全体にわたるRGBシャープネスに苦戦する従来のコンパクト光学系と、ソフトウェアのみのモノクロ深度推定(MDE)は、信頼性の低いセマンティックオーディエンスに依存した不適切な問題である。
DOEのような要素を持つディープ光学は深度をエンコードできるが、製造の複雑さと色収差のトレードオフを導入し、単純さを損なう。
まず、バイオインスパイアされた全球型単心レンズを導入し、その周囲にBMI(Bionic Monocentric Imaging)フレームワークを構築しました。
この光学設計は、複雑な回折要素やフリーフォーム要素を必要とせずに、深度変化のポイントスプレッド関数(PSF)に奥行きをエンコードする。
我々は、光学劣化過程を正確にシミュレートして合成データセットを生成するために、厳密な物理モデルを構築した。
このシミュレーションパイプラインは、共有エンコーダを使用して、高忠実度All-in-Focus(AiF)イメージと、単一の符号化されたキャプチャから正確な深度マップを共同で復元するデュアルヘッド、マルチスケール再構成ネットワークで設計されている。
大規模な実験により,提案フレームワークの最先端性能が検証された。
深度推定では、Abs Relが0.026、RMSEが0.130に達し、ソフトウェア専用アプローチやその他の深度光学システムよりも顕著に優れている。
画像復元には、0.960のSSIMと知覚LPIPSスコア0.082のSSIMを達成し、画像の忠実度と深度精度のバランスを良好に確認する。
本研究は, バイオインスパイアされた完全球面光学とジョイント再構成アルゴリズムの統合が, 高性能コンパクトRGBDイメージングにおける本質的な課題に対処するための有効な戦略であることを示す。
ソースコードはhttps://github.com/ZongxiYu-ZJU/BMIで公開されている。
関連論文リスト
- PFDepth: Heterogeneous Pinhole-Fisheye Joint Depth Estimation via Distortion-aware Gaussian-Splatted Volumetric Fusion [61.6340987158734]
ヘテロジニアス多視点深度推定のための最初のピンホール・フィッシュアイ・フレームワークPFDepthを提案する。
PFDepthは、ピンホールと魚眼カメラの任意の組み合わせを、様々な内在と外生とで処理できる統一アーキテクチャを採用している。
我々は,現在の主流深度ネットワーク上でのKITTI-360およびRealHetデータセットに対して,PFDepthが最先端の性能を示すことを示す。
論文 参考訳(メタデータ) (2025-09-30T09:38:59Z) - Learned Off-aperture Encoding for Wide Field-of-view RGBD Imaging [31.931929519577402]
この研究は、DOEオフアパーチャを配置することで、自由度を空間的にアンミックスできる追加の設計選択を探索する。
実験結果から,PSNRの5dB以上のFoVにおいて,単純な薄膜レンズと組み合わせた場合,オフ開口DOEにより撮像品質が向上することが明らかとなった。
論文 参考訳(メタデータ) (2025-07-30T09:49:47Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [63.87313550399871]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基礎モデルと潜在空間アライメントによるクロスモーダルな知識伝達を確立する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Aperture Diffraction for Compact Snapshot Spectral Imaging [27.321750056840706]
我々は、Aperture Diffraction Imaging Spectrometer (ADIS) という、コンパクトで費用効率の良いスナップショット分光画像システムを紹介した。
モザイクフィルタセンサ上の離散符号化位置にオブジェクト空間の各点を多重化する新しい光学設計を導入する。
回折変性を強く知覚するカスケードシフトシャッフルスペクトル変換器(CSST)は、空間制約の逆問題を解決するために設計されている。
論文 参考訳(メタデータ) (2023-09-27T16:48:46Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - Unpaired Single-Image Depth Synthesis with cycle-consistent Wasserstein
GANs [1.0499611180329802]
実環境深度のリアルタイム推定は、様々な自律システムタスクにとって必須のモジュールである。
本研究では、生成型ニューラルネットワークの分野における最近の進歩を、教師なしの単一画像深度合成に活用する。
論文 参考訳(メタデータ) (2021-03-31T09:43:38Z) - Single-shot Hyperspectral-Depth Imaging with Learned Diffractive Optics [72.9038524082252]
単発単眼単眼ハイパースペクトル(HS-D)イメージング法を提案する。
本手法では, 回折光学素子 (DOE) を用いる。
DOE の学習を容易にするため,ベンチトップ HS-D イメージラーを構築することで,最初の HS-D データセットを提案する。
論文 参考訳(メタデータ) (2020-09-01T14:19:35Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。