論文の概要: Mirror3D: Depth Refinement for Mirror Surfaces
- arxiv url: http://arxiv.org/abs/2106.06629v1
- Date: Fri, 11 Jun 2021 22:30:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:06:09.076363
- Title: Mirror3D: Depth Refinement for Mirror Surfaces
- Title(参考訳): Mirror3D:鏡面の深部微細化
- Authors: Jiaqi Tan, Weijie Lin, Angel X. Chang, Manolis Savva
- Abstract要約: 3つのRGBDデータセットに基づいた3DミラープレーンデータセットであるMirror3Dデータセットを作成します。
次に、ミラー表面の誤差を補正するために、生のセンサー深度や推定深度を洗練するモジュールであるMirror3DNetを開発する。
実験の結果,Mirror3DNetは入力深度データの誤りを著しく軽減することがわかった。
- 参考スコア(独自算出の注目度): 15.825231649843332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent progress in depth sensing and 3D reconstruction, mirror
surfaces are a significant source of errors. To address this problem, we create
the Mirror3D dataset: a 3D mirror plane dataset based on three RGBD datasets
(Matterport3D, NYUv2 and ScanNet) containing 7,011 mirror instance masks and 3D
planes. We then develop Mirror3DNet: a module that refines raw sensor depth or
estimated depth to correct errors on mirror surfaces. Our key idea is to
estimate the 3D mirror plane based on RGB input and surrounding depth context,
and use this estimate to directly regress mirror surface depth. Our experiments
show that Mirror3DNet significantly mitigates errors from a variety of input
depth data, including raw sensor depth and depth estimation or completion
methods.
- Abstract(参考訳): 近年の深度センシングと3次元再構成の進歩にもかかわらず、鏡面は重大な誤りの原因となっている。
この問題を解決するために、mirror3dデータセットを作成する。3つのrgbdデータセット(matterport3d、nyuv2、scannet)に基づく3dミラープレーンデータセットで、7,011ミラーインスタンスマスクと3dプレーンを含む。
次に、ミラー表面の誤差を補正するために、生のセンサー深度や推定深度を洗練するモジュールであるMirror3DNetを開発する。
我々のキーとなる考え方は、RGB入力と周囲の深度コンテキストに基づいて3次元ミラー平面を推定し、この推定を用いて鏡面の深度を直接回帰させることである。
実験の結果,Mirror3DNetは生のセンサ深度や深度推定や完了方法など,様々な入力深度データからの誤差を著しく軽減することがわかった。
関連論文リスト
- OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - MirrorGaussian: Reflecting 3D Gaussians for Reconstructing Mirror Reflections [58.003014868772254]
MirrorGaussian は 3D Gaussian Splatting に基づくリアルタイムレンダリングによるミラーシーン再構築手法である。
本稿では,現実の3Dガウスと鏡面の両面の微分を可能にする直感的なデュアルレンダリング戦略を提案する。
我々の手法は既存の手法よりも優れており、最先端の結果が得られている。
論文 参考訳(メタデータ) (2024-05-20T09:58:03Z) - 3DRef: 3D Dataset and Benchmark for Reflection Detection in RGB and
Lidar Data [0.0]
本稿では,マルチリターンライダー,RGB画像,および2D/3Dセマンティックラベルの5万以上のサンプルを含む,最初の大規模3D反射検出データセットを提案する。
提案したデータセットは, 高精度なグローバルアライメント, マルチモーダルデータ, 多様な反射物体や材料を備えた総合的なテストベッドを提供することにより, 反射検出を推し進める。
論文 参考訳(メタデータ) (2024-03-11T09:29:44Z) - Boosting Monocular 3D Object Detection with Object-Centric Auxiliary
Depth Supervision [13.593246617391266]
本稿では,RGB画像に基づく3D検出器を,深度推定タスクに類似した深度予測損失で共同でトレーニングすることにより,RGB画像に基づく3D検出器の強化手法を提案する。
新たな物体中心深度予測損失は,3次元物体検出において重要な前景物体周辺の深度に焦点をあてる。
我々の深度回帰モデルは、物体の3次元信頼度を表すために、深度の不確かさを予測するためにさらに訓練される。
論文 参考訳(メタデータ) (2022-10-29T11:32:28Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Sparse Depth Completion with Semantic Mesh Deformation Optimization [4.03103540543081]
本稿では、RGB画像とスパース深度サンプルを入力とし、完全な深度マップを予測し、最適化後のニューラルネットワークを提案する。
評価結果は,屋内および屋外両方のデータセットにおいて,既存の成果を一貫して上回る結果となった。
論文 参考訳(メタデータ) (2021-12-10T13:01:06Z) - Error Diagnosis of Deep Monocular Depth Estimation Models [0.2770822269241973]
室内シーンにおける現状のモノクル深度推定モデルを分析し,これらのモデルの限界と誤差パターンを理解する。
深度推定における誤りに対処するために,空間的に誤深度予測を識別する新しい深度誤差検出ネットワーク(DEDN)を導入する。
我々のモジュールは柔軟で、任意の単分子深度予測ネットワークに簡単に接続でき、その結果の診断に役立ちます。
論文 参考訳(メタデータ) (2021-11-15T22:13:28Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - GeoNet++: Iterative Geometric Neural Network with Edge-Aware Refinement
for Joint Depth and Surface Normal Estimation [204.13451624763735]
本研究では,エッジアウェア・リファインメント(GeoNet++)を用いた幾何ニューラルネットワークを提案し,単一の画像から深さと表面正規写像の両方を共同で予測する。
geonet++は、強い3d一貫性と鋭い境界を持つ深さと表面の正常を効果的に予測する。
画素単位の誤差/精度を評価することに焦点を当てた現在の測定値とは対照的に、3DGMは予測深度が高品質な3D表面の正常を再構築できるかどうかを測定する。
論文 参考訳(メタデータ) (2020-12-13T06:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。