論文の概要: MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices
- arxiv url: http://arxiv.org/abs/2303.01932v1
- Date: Fri, 3 Mar 2023 14:02:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 14:57:05.352557
- Title: MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices
- Title(参考訳): MobileBrick: モバイルデバイスで3Dレコンストラクションを実現するLEGO
- Authors: Kejie Li, Jia-Wang Bian, Robert Castle, Philip H.S. Torr, Victor
Adrian Prisacariu
- Abstract要約: 高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
- 参考スコア(独自算出の注目度): 78.20154723650333
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: High-quality 3D ground-truth shapes are critical for 3D object reconstruction
evaluation. However, it is difficult to create a replica of an object in
reality, and even 3D reconstructions generated by 3D scanners have artefacts
that cause biases in evaluation. To address this issue, we introduce a novel
multi-view RGBD dataset captured using a mobile device, which includes highly
precise 3D ground-truth annotations for 153 object models featuring a diverse
set of 3D structures. We obtain precise 3D ground-truth shape without relying
on high-end 3D scanners by utilising LEGO models with known geometry as the 3D
structures for image capture. The distinct data modality offered by
high-resolution RGB images and low-resolution depth maps captured on a mobile
device, when combined with precise 3D geometry annotations, presents a unique
opportunity for future research on high-fidelity 3D reconstruction.
Furthermore, we evaluate a range of 3D reconstruction algorithms on the
proposed dataset. Project page: http://code.active.vision/MobileBrick/
- Abstract(参考訳): 高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
しかし、実際に物体のレプリカを作成することは困難であり、3Dスキャナーによって生成された3D再構成でさえ、評価のバイアスを引き起こす人工物を持っている。
この問題に対処するため,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを導入し,多様な3次元構造を持つ153個のオブジェクトモデルに対して,高精度な3次元地上構造アノテーションを含む。
3d立体構造として知られるレゴ模型を用いて,ハイエンドの3dスキャナを頼らずに正確な3d立体形状を得る。
高解像度のRGB画像とモバイルデバイスで取得した低解像度の深度マップによって提供される明瞭なデータモダリティは、精密な3D幾何学アノテーションと組み合わせることで、将来の高忠実度3D再構成の研究の機会となる。
さらに,提案するデータセット上での3次元再構成アルゴリズムの評価を行った。
プロジェクトページ: http://code.active.vision/MobileBrick/
関連論文リスト
- DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - DMV3D: Denoising Multi-View Diffusion using 3D Large Reconstruction
Model [86.37536249046943]
textbfDMV3Dはトランスフォーマーに基づく3次元大規模再構成モデルを用いた新しい3D生成手法である。
再構成モデルでは, 3面のNeRF表現を組み込んで, ノイズの多い多視点画像をNeRF再構成とレンダリングで識別することができる。
論文 参考訳(メタデータ) (2023-11-15T18:58:41Z) - Cross3DVG: Cross-Dataset 3D Visual Grounding on Different RGB-D Scans [6.936271803454143]
3Dシーンにおけるクロスデータセット視覚的グラウンド化のための新しいタスク(Cross3DVG)を提案する。
大規模な3DビジュアルグラウンドデータセットであるROOReferを作成しました。
3RScanの1,380の屋内RGB-Dスキャンで、63万以上の3Dオブジェクトが記述されている。
論文 参考訳(メタデータ) (2023-05-23T09:52:49Z) - Anything-3D: Towards Single-view Anything Reconstruction in the Wild [61.090129285205805]
本稿では,一連の視覚言語モデルとSegment-Anythingオブジェクトセグメンテーションモデルを組み合わせた方法論的フレームワークであるAnything-3Dを紹介する。
提案手法では、BLIPモデルを用いてテキスト記述を生成し、Segment-Anythingモデルを用いて関心対象を効果的に抽出し、テキスト・画像拡散モデルを用いて物体を神経放射場へ持ち上げる。
論文 参考訳(メタデータ) (2023-04-19T16:39:51Z) - Lift3D: Synthesize 3D Training Data by Lifting 2D GAN to 3D Generative
Radiance Field [16.15190186574068]
データ生成の目的を達成するために,逆2D-to-3D生成フレームワークであるLift3Dを提案する。
2D GANを3DオブジェクトNeRFに持ち上げることで、Lift3Dは生成されたオブジェクトの明示的な3D情報を提供する。
我々は、自律運転データセットを増強することで、我々のフレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2023-04-07T07:43:02Z) - OmniObject3D: Large-Vocabulary 3D Object Dataset for Realistic
Perception, Reconstruction and Generation [107.71752592196138]
OmniObject3Dを提案する。OmniObject3Dは,大規模で高品質な3Dオブジェクトを持つ大語彙の3Dオブジェクトデータセットである。
190のカテゴリーで6,000のスキャン対象からなり、一般的な2Dデータセットと共通クラスを共有する。
それぞれの3Dオブジェクトは、2Dと3Dの両方のセンサーでキャプチャされ、テクスチャメッシュ、ポイントクラウド、マルチビューレンダリング画像、複数の実写ビデオを提供する。
論文 参考訳(メタデータ) (2023-01-18T18:14:18Z) - Voxel-based 3D Detection and Reconstruction of Multiple Objects from a
Single Image [22.037472446683765]
入力画像から3次元特徴持ち上げ演算子を用いて3次元シーン空間に整合した3次元ボクセル特徴の正規格子を学習する。
この3Dボクセルの特徴に基づき,新しいCenterNet-3D検出ヘッドは3D空間におけるキーポイント検出として3D検出を定式化する。
我々は、粗度ボキセル化や、新しい局所PCA-SDF形状表現を含む、効率的な粗度から細度の再構成モジュールを考案する。
論文 参考訳(メタデータ) (2021-11-04T18:30:37Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - Monocular 3D Object Detection with Decoupled Structured Polygon
Estimation and Height-Guided Depth Estimation [41.29145717658494]
本稿では,検出問題を構造化ポリゴン予測タスクと深度回復タスクに分解する新しい統合フレームワークを提案する。
広く使われている3Dバウンディングボックスの提案と比較すると、3D検出のためのより良い表現であることが示されている。
KITTIベンチマークにおいて,本手法が最先端検出精度を実現するための実験を行った。
論文 参考訳(メタデータ) (2020-02-05T03:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。