論文の概要: RGB-Phase Speckle: Cross-Scene Stereo 3D Reconstruction via Wrapped Pre-Normalization
- arxiv url: http://arxiv.org/abs/2503.06125v1
- Date: Sat, 08 Mar 2025 08:37:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:46:18.352440
- Title: RGB-Phase Speckle: Cross-Scene Stereo 3D Reconstruction via Wrapped Pre-Normalization
- Title(参考訳): RGB-Phase Speckle: Wrapped Pre-Normalization を用いたクロスシーンステレオ3次元再構成
- Authors: Kai Yang, Zijian Bai, Yang Xiao, Xinyu Li, Xiaohan Shi,
- Abstract要約: 本研究では,アクティブステレオカメラシステムに基づく3D再構成フレームワークであるRGB-Speckleを紹介する。
外部干渉を緩和する新しい位相前正規化符号化法を提案する。
実験の結果,提案したRGB-Speckleモデルでは,クロスドメインおよびクロスシーン3次元再構成作業において大きな利点があることがわかった。
- 参考スコア(独自算出の注目度): 9.20903035677888
- License:
- Abstract: 3D reconstruction garners increasing attention alongside the advancement of high-level image applications, where dense stereo matching (DSM) serves as a pivotal technique. Previous studies often rely on publicly available datasets for training, focusing on modifying network architectures or incorporating specialized modules to extract domain-invariant features and thus improve model robustness. In contrast, inspired by single-frame structured-light phase-shifting encoding, this study introduces RGB-Speckle, a cross-scene 3D reconstruction framework based on an active stereo camera system, designed to enhance robustness. Specifically, we propose a novel phase pre-normalization encoding-decoding method: first, we randomly perturb phase-shift maps and embed them into the three RGB channels to generate color speckle patterns; subsequently, the camera captures phase-encoded images modulated by objects as input to a stereo matching network. This technique effectively mitigates external interference and ensures consistent input data for RGB-Speckle, thereby bolstering cross-domain 3D reconstruction stability. To validate the proposed method, we conduct complex experiments: (1) construct a color speckle dataset for complex scenarios based on the proposed encoding scheme; (2) evaluate the impact of the phase pre-normalization encoding-decoding technique on 3D reconstruction accuracy; and (3) further investigate its robustness across diverse conditions. Experimental results demonstrate that the proposed RGB-Speckle model offers significant advantages in cross-domain and cross-scene 3D reconstruction tasks, enhancing model generalization and reinforcing robustness in challenging environments, thus providing a novel solution for robust 3D reconstruction research.
- Abstract(参考訳): 高精細立体マッチング(DSM)が中心となる高精細画像応用の進展に伴い、3D再構成が注目されている。
以前の研究では、ネットワークアーキテクチャの変更やドメイン不変の機能を抽出するための特別なモジュールの導入、モデルロバスト性の改善など、トレーニングのために利用可能なデータセットに頼っていた。
対照的に、単フレーム構造光位相シフト符号化に着想を得たRGB-Speckleは、アクティブステレオカメラシステムに基づくクロスシーン3D再構成フレームワークで、堅牢性の向上を目的としている。
具体的には、まず、ランダムに位相シフトマップを摂動して3つのRGBチャネルに埋め込んでカラースペックルパターンを生成し、続いてステレオマッチングネットワークへの入力としてオブジェクトによって変調された位相符号化画像をキャプチャする。
この技術は、外部干渉を効果的に軽減し、RGB-Speckleに対する一貫した入力データを確保することにより、クロスドメイン3D再構築の安定性を高める。
提案手法を検証するため,(1)複雑なシナリオを対象としたカラースペックルデータセットの構築,(2)位相前正規化符号化復号化手法が3次元再構成精度に与える影響の評価,(3)様々な条件におけるその堅牢性について検討する。
実験結果から,提案したRGB-Speckleモデルでは,ドメイン間およびクロスシーンの3次元再構成作業において大きなアドバンテージが得られ,モデルの一般化が促進され,挑戦的な環境における堅牢性が向上し,ロバストな3次元再構成研究のための新たなソリューションが提供されることがわかった。
関連論文リスト
- Semantic Scene Completion with Multi-Feature Data Balancing Network [5.3431413737671525]
RGBおよび深度データ(F-TSDF)入力のためのデュアルヘッドモデルを提案する。
プリアクティベーション残余モジュールにおけるアイデンティティ変換を伴うハイブリッドエンコーダデコーダアーキテクチャは、F-TSDF内の多様な信号を効果的に管理する。
我々は,RGB特徴融合戦略を評価し,2次元RGB特徴量と重み付きクロスエントロピーを併用して3次元SSC予測を行う。
論文 参考訳(メタデータ) (2024-12-02T12:12:21Z) - PreF3R: Pose-Free Feed-Forward 3D Gaussian Splatting from Variable-length Image Sequence [3.61512056914095]
可変長の画像列から,PreF3R, Pose-Free Feed-forward 3D再構成を提案する。
PreF3Rは、カメラキャリブレーションの必要性を排除し、正準座標フレーム内の3次元ガウス場を、未提示画像のシーケンスから直接再構成する。
論文 参考訳(メタデータ) (2024-11-25T19:16:29Z) - Anyview: Generalizable Indoor 3D Object Detection with Variable Frames [63.51422844333147]
我々は,AnyViewという新しい3D検出フレームワークを実用化するために提案する。
本手法は, 単純かつクリーンなアーキテクチャを用いて, 高い一般化性と高い検出精度を実現する。
論文 参考訳(メタデータ) (2023-10-09T02:15:45Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - CIR-Net: Cross-modality Interaction and Refinement for RGB-D Salient
Object Detection [144.66411561224507]
本稿では,CIR-Netと呼ばれる畳み込みニューラルネットワーク(CNN)モデルを提案する。
我々のネットワークは、定性的かつ定量的に最先端の塩分濃度検出器より優れています。
論文 参考訳(メタデータ) (2022-10-06T11:59:19Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - TransformerFusion: Monocular RGB Scene Reconstruction using Transformers [26.87200488085741]
TransformerFusionはトランスフォーマーベースの3Dシーン再構築手法である。
ネットワークは、シーン内の3D位置ごとに最も関連性の高い画像フレームに参加することを学習する。
機能は粗い方法で融合され、必要なときにのみ細かい機能を保持する。
論文 参考訳(メタデータ) (2021-07-05T18:00:11Z) - RGB-D Salient Object Detection via 3D Convolutional Neural Networks [19.20231385522917]
3D畳み込みニューラルネットワークによるRGB-D SODへの対処を試みます。
提案したRD3Dは、エンコーダ段階での事前融合とデコーダ段階での深部融合を目的としている。
RD3Dは4つの重要な評価指標から,14の最先端RGB-D SODアプローチに対して良好に機能することを示す。
論文 参考訳(メタデータ) (2021-01-25T17:03:02Z) - SPSG: Self-Supervised Photometric Scene Generation from RGB-D Scans [34.397726189729994]
SPSGは、RGB-Dスキャン観測から高品質で色のついたシーンの3Dモデルを生成するための新しいアプローチである。
我々の自己監督的アプローチは、不完全なRGB-Dスキャンと、そのスキャンのより完全なバージョンとを関連付けて、幾何学と色を共同で塗布することを学ぶ。
論文 参考訳(メタデータ) (2020-06-25T18:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。