論文の概要: Towards High-Precision Depth Sensing via Monocular-Aided iToF and RGB Integration
- arxiv url: http://arxiv.org/abs/2508.16579v1
- Date: Sun, 03 Aug 2025 13:48:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.557172
- Title: Towards High-Precision Depth Sensing via Monocular-Aided iToF and RGB Integration
- Title(参考訳): 単眼支援iToFによる高精度深度センシングとRGB統合に向けて
- Authors: Yansong Du, Yutong Deng, Yuting Zhou, Feiyu Jiao, Jian Song, Xun Guan,
- Abstract要約: Indirect Time-of-Flight (iToF) 深度検出の固有の限界に対処する新しいiToF-RGB融合フレームワークを提案する。
提案手法は,まず狭帯域iToF深度マップを広帯域RGB座標系に再計画する。
次に、二重エンコーダ融合ネットワークを用いて、再計画したiToF深度とRGB画像から相補的特徴を共同抽出する。
クロスモーダル構造的キューと奥行き整合性制約を統合することにより, 深度精度の向上, エッジシャープネスの向上, シームレスなFoV拡張を実現する。
- 参考スコア(独自算出の注目度): 11.077863605272668
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents a novel iToF-RGB fusion framework designed to address the inherent limitations of indirect Time-of-Flight (iToF) depth sensing, such as low spatial resolution, limited field-of-view (FoV), and structural distortion in complex scenes. The proposed method first reprojects the narrow-FoV iToF depth map onto the wide-FoV RGB coordinate system through a precise geometric calibration and alignment module, ensuring pixel-level correspondence between modalities. A dual-encoder fusion network is then employed to jointly extract complementary features from the reprojected iToF depth and RGB image, guided by monocular depth priors to recover fine-grained structural details and perform depth super-resolution. By integrating cross-modal structural cues and depth consistency constraints, our approach achieves enhanced depth accuracy, improved edge sharpness, and seamless FoV expansion. Extensive experiments on both synthetic and real-world datasets demonstrate that the proposed framework significantly outperforms state-of-the-art methods in terms of accuracy, structural consistency, and visual quality.
- Abstract(参考訳): 本稿では、空間分解能の低さ、視野の制限(FoV)、複雑なシーンの構造歪みなど、間接的時間-光(iToF)深度センシングの固有の限界に対処するために設計された新しいiToF-RGB融合フレームワークを提案する。
提案手法は,まず,ワイドFoV RGB座標系に細いFoV iToF深度マップを精密な幾何キャリブレーションとアライメントモジュールにより再描画し,モダリティ間の画素レベルの対応性を確保する。
次に、二重エンコーダ融合ネットワークを用いて、再投影したiToF深度とRGB画像から相補的特徴を共同抽出し、単分子深度でガイドして微細な構造を復元し、深度超解像を行う。
クロスモーダル構造的キューと奥行き整合性制約を統合することにより, 深度精度の向上, エッジシャープネスの向上, シームレスなFoV拡張を実現する。
合成と実世界の両方のデータセットに対する大規模な実験により、提案されたフレームワークは、精度、構造的整合性、視覚的品質の点で最先端の手法を大幅に上回っていることが示された。
関連論文リスト
- DuCos: Duality Constrained Depth Super-Resolution via Foundation Model [56.88399488384106]
ラグランジアン双対性理論に基づく新しい深度超解像フレームワークであるDuCosを紹介する。
DuCosは、ファンデーションモデルをプロンプトとして、さまざまなシナリオにおける一般化を著しく改善した最初の企業だ。
論文 参考訳(メタデータ) (2025-03-06T07:36:45Z) - RGB-Thermal Infrared Fusion for Robust Depth Estimation in Complex Environments [0.0]
本稿では,深度推定精度とロバスト性を向上させるマルチモーダル深度推定モデルRTFusionを提案する。
このモデルは、相互補完的アライメント(MCA)モジュールからなる独自の融合機構であるEGFusionを組み込んでいる。
MS2およびViViD++データセットの実験では、提案モデルが高品質な深度マップを一貫して生成していることが示されている。
論文 参考訳(メタデータ) (2025-03-05T01:35:14Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Structure Flow-Guided Network for Real Depth Super-Resolution [28.63334760296165]
本稿では,新しい構造フロー誘導深度超解像(DSR)フレームワークを提案する。
クロスモダリティフローマップを学習し、RGB構造情報転送を正確に深度アップサンプリングするためのガイドする。
我々のフレームワークは最先端の手法と比較して優れた性能を実現している。
論文 参考訳(メタデータ) (2023-01-31T05:13:55Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。