論文の概要: Reflect3r: Single-View 3D Stereo Reconstruction Aided by Mirror Reflections
- arxiv url: http://arxiv.org/abs/2509.20607v1
- Date: Wed, 24 Sep 2025 23:00:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.616729
- Title: Reflect3r: Single-View 3D Stereo Reconstruction Aided by Mirror Reflections
- Title(参考訳): Reflect3r:ミラーリフレクションによるシングルビュー3Dステレオ再構成
- Authors: Jing Wu, Zirui Wang, Iro Laina, Victor Adrian Prisacariu,
- Abstract要約: ミラーリフレクションは日常の環境で一般的であり、単一のキャプチャ内でステレオ情報を提供することができる。
我々はこの特性を利用して、リフレクションを補助的な視点として扱い、物理的に有効な仮想カメラを構成する変換を設計する。
これにより、単一の画像から多視点ステレオ設定が可能となり、撮像プロセスが簡単になる。
- 参考スコア(独自算出の注目度): 55.248092751290834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mirror reflections are common in everyday environments and can provide stereo information within a single capture, as the real and reflected virtual views are visible simultaneously. We exploit this property by treating the reflection as an auxiliary view and designing a transformation that constructs a physically valid virtual camera, allowing direct pixel-domain generation of the virtual view while adhering to the real-world imaging process. This enables a multi-view stereo setup from a single image, simplifying the imaging process, making it compatible with powerful feed-forward reconstruction models for generalizable and robust 3D reconstruction. To further exploit the geometric symmetry introduced by mirrors, we propose a symmetric-aware loss to refine pose estimation. Our framework also naturally extends to dynamic scenes, where each frame contains a mirror reflection, enabling efficient per-frame geometry recovery. For quantitative evaluation, we provide a fully customizable synthetic dataset of 16 Blender scenes, each with ground-truth point clouds and camera poses. Extensive experiments on real-world data and synthetic data are conducted to illustrate the effectiveness of our method.
- Abstract(参考訳): ミラーリフレクションは日常の環境で一般的であり、リアルとリフレクションの仮想ビューが同時に見えるため、単一のキャプチャ内でステレオ情報を提供することができる。
我々は、この特性を利用して、リフレクションを補助ビューとして扱い、物理的に有効な仮想カメラを構築する変換を設計し、現実世界の撮像プロセスに固執しながら、仮想ビューの直接ピクセルドメイン生成を可能にする。
これにより、単一画像からの多視点ステレオ設定が可能となり、撮像プロセスが簡素化され、汎用的で堅牢な3D再構成のための強力なフィードフォワード再構成モデルと互換性がある。
鏡によって導入された幾何対称性をさらに活用するために、ポーズ推定を洗練するための対称認識損失を提案する。
フレームワークは動的シーンにも自然に拡張され、各フレームにミラーリフレクションがあり、フレーム単位のジオメトリを効率的に回復することができる。
定量的評価のために,16のブレンダーシーンの完全カスタマイズ可能な合成データセットを提供する。
本手法の有効性を示すために,実世界のデータと合成データに関する大規模な実験を行った。
関連論文リスト
- Seeing Through Reflections: Advancing 3D Scene Reconstruction in Mirror-Containing Environments with Gaussian Splatting [3.0501972844045273]
室内の多様なシーン、1256の高品質画像、注釈付きミラーマスクを備えたデータセットであるMirrorScene3Dを提示する。
ミラー反射を相補的視点として利用する3次元ガウス格子の拡張であるReflectiveGSを提案する。
MirrorScene3Dの実験では、ReflectiveGaussianはSSIM、PSNR、LPIPS、トレーニング速度において既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-09-23T13:06:00Z) - MapAnything: Universal Feed-Forward Metric 3D Reconstruction [63.79151976126576]
MapAnythingは1つ以上の画像を取り込み、カメラの内在性、ポーズ、深さ、部分的な再構築など、任意の幾何学的入力を行う。
そして、メーター3Dシーンの幾何学とカメラを直接補強する。
MapAnythingは、単一のフィードフォワードパスで幅広い3Dビジョンタスクに対処する。
論文 参考訳(メタデータ) (2025-09-16T18:00:14Z) - FaceLift: Learning Generalizable Single Image 3D Face Reconstruction from Synthetic Heads [54.24070918942727]
1枚の画像から高画質の360度3Dヘッドを復元するための新しいフィードフォワードアプローチであるFaceLiftを提案する。
パイプラインはまずマルチビューの潜伏拡散モデルを用いて、1つの入力から一貫したサイドビューとバックビューを生成する。
FaceLiftは、アイデンティティ保存、ディテールリカバリ、レンダリング品質において、最先端の3D顔再構成方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-12-23T18:59:49Z) - Gaussian Splatting in Mirrors: Reflection-Aware Rendering via Virtual Camera Optimization [14.324573496923792]
3D-GSはしばしばリフレクションを仮想空間と誤解し、ミラー内の曖昧で一貫性のないマルチビューレンダリングをもたらす。
本稿では,リフレクションを物理ベース仮想カメラとしてモデル化することで,高品質なマルチビュー一貫したリフレクションレンダリングを実現する手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T14:53:24Z) - Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [38.72679977945778]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - Shape and Reflectance Reconstruction in Uncontrolled Environments by
Differentiable Rendering [27.41344744849205]
従来のハンドヘルドカメラを用いた多視点写真からシーンの3次元形状と反射率を再構築する効率的な手法を提案する。
また,本手法は,新しい視点の視覚的合成と定量化において,最先端の代替手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-25T14:09:10Z) - Polka Lines: Learning Structured Illumination and Reconstruction for
Active Stereo [52.68109922159688]
本稿では,波動光学と幾何光学の両方に依存した,アクティブステレオのための新しい微分可能な画像形成モデルと,新しい三眼再構成ネットワークを提案する。
Polka Lines" を再現ネットワークと組み合わせた共同最適化パターンは, 撮像条件全体にわたって, 最先端のアクティブステレオ深度推定を達成している。
論文 参考訳(メタデータ) (2020-11-26T04:02:43Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。