論文の概要: View2CAD: Reconstructing View-Centric CAD Models from Single RGB-D Scans
- arxiv url: http://arxiv.org/abs/2504.04000v1
- Date: Sat, 05 Apr 2025 00:10:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:09:55.978405
- Title: View2CAD: Reconstructing View-Centric CAD Models from Single RGB-D Scans
- Title(参考訳): View2CAD:単一のRGB-Dスコープからビュー中心CADモデルを構築する
- Authors: James Noeckel, Benjamin Jones, Adriana Schulz, Brian Curless,
- Abstract要約: 境界表現(B-reps)として表されるパラメトリックCADモデルは、現代の設計と製造の基礎となっている。
既存の測定データからB-Repsを復元するには、完全なノイズのない3Dデータが必要である。
本稿では,観測された幾何学のみを1つの視点から再構築するという課題に対処する手法を提案する。
- 参考スコア(独自算出の注目度): 9.043106675778303
- License:
- Abstract: Parametric CAD models, represented as Boundary Representations (B-reps), are foundational to modern design and manufacturing workflows, offering the precision and topological breakdown required for downstream tasks such as analysis, editing, and fabrication. However, B-Reps are often inaccessible due to conversion to more standardized, less expressive geometry formats. Existing methods to recover B-Reps from measured data require complete, noise-free 3D data, which are laborious to obtain. We alleviate this difficulty by enabling the precise reconstruction of CAD shapes from a single RGB-D image. We propose a method that addresses the challenge of reconstructing only the observed geometry from a single view. To allow for these partial observations, and to avoid hallucinating incorrect geometry, we introduce a novel view-centric B-rep (VB-Rep) representation, which incorporates structures to handle visibility limits and encode geometric uncertainty. We combine panoptic image segmentation with iterative geometric optimization to refine and improve the reconstruction process. Our results demonstrate high-quality reconstruction on synthetic and real RGB-D data, showing that our method can bridge the reality gap.
- Abstract(参考訳): 境界表現(B-reps)として表されるパラメトリックCADモデルは、現代の設計と製造のワークフローの基礎であり、分析、編集、製造といった下流のタスクに必要な精度とトポロジ的な分解を提供する。
しかしながら、B-Repsはより標準化され、表現力の低い幾何学形式に変換されるため、しばしばアクセスできない。
既存の測定データからB-Repsを復元するには、完全なノイズのない3Dデータが必要である。
単一のRGB-D画像からCAD形状の正確な再構成を可能にすることで、この難しさを軽減する。
本稿では,観測された幾何学のみを1つの視点から再構築するという課題に対処する手法を提案する。
これらの部分的な観察を可能とし、また、幻覚的不正確な幾何学を避けるために、視認限界に対処し、幾何不確かさを符号化する構造を組み込んだビュー中心のB-rep(VB-Rep)表現を導入する。
画像分割と反復的幾何最適化を組み合わせることで、再構成プロセスの洗練と改善を図る。
提案手法は,合成および実RGB-Dデータに対して高品質な再構成を行い,現実のギャップを埋めることができることを示す。
関連論文リスト
- Hyperbolic-constraint Point Cloud Reconstruction from Single RGB-D Images [19.23499128175523]
我々は3次元点雲再構成に双曲空間を導入し、低歪みの点雲における複雑な階層構造を表現・理解できるようにする。
我々のモデルは既存のモデルよりも優れており、アブレーション研究は我々のモデルとその構成要素の重要性を実証している。
論文 参考訳(メタデータ) (2024-12-12T08:27:39Z) - BRep Boundary and Junction Detection for CAD Reverse Engineering [14.662769071664252]
メカニカルシステムの3次元リバースエンジニアリングは, メカニカルシステムにおいて, 極めて重要でありながら, 時間を要するステップである。
ディープラーニングに基づくScan-to-CADモデリングは、CADモデルを迅速に修正するための膨大な編集可能性を提供する。
CC3DおよびABCデータセットの3次元スキャンから教師付き境界表現(BRep)検出ネットワークBRepDetNetを提案する。
論文 参考訳(メタデータ) (2024-09-21T09:53:11Z) - PS-CAD: Local Geometry Guidance via Prompting and Selection for CAD Reconstruction [86.726941702182]
再構成ネットワークPS-CADに幾何学的ガイダンスを導入する。
我々は、現在の再構成が点雲としての完備モデルと異なる曲面の幾何学を提供する。
第二に、幾何学的解析を用いて、候補面に対応する平面的プロンプトの集合を抽出する。
論文 参考訳(メタデータ) (2024-05-24T03:43:55Z) - DiffCAD: Weakly-Supervised Probabilistic CAD Model Retrieval and Alignment from an RGB Image [34.47379913018661]
本稿では,RGB画像からのCAD検索とアライメントに対する,最初の弱教師付き確率的アプローチであるDiffCADを提案する。
我々はこれを条件付き生成タスクとして定式化し、拡散を利用して画像中のCADオブジェクトの形状、ポーズ、スケールをキャプチャする暗黙の確率モデルを学ぶ。
提案手法は, 合成データのみを用いて学習し, 単眼深度とマスク推定を利用して, 種々の実対象領域へのロバストなゼロショット適応を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:10:21Z) - U-RED: Unsupervised 3D Shape Retrieval and Deformation for Partial Point
Clouds [84.32525852378525]
教師なし形状検索および変形パイプラインであるU-REDを提案する。
任意のオブジェクトの観察を入力として受け取り、通常RGBの画像やスキャンによってキャプチャされ、幾何学的に類似したCADモデルを共同で検索して変形する。
我々は,U-REDが既存の最先端アプローチを47.3%,16.7%,31.6%で上回っていることを示す。
論文 参考訳(メタデータ) (2023-08-11T20:56:05Z) - Reconstructing editable prismatic CAD from rounded voxel models [16.03976415868563]
この課題を解決するために,新しいニューラルネットワークアーキテクチャを導入する。
本手法は形状を分解することでボクセル空間の入力幾何を再構成する。
推論の際には,まず2次元制約付きスケッチのデータベースを検索し,CADデータを取得する。
論文 参考訳(メタデータ) (2022-09-02T16:44:10Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Multi-view 3D Reconstruction of a Texture-less Smooth Surface of Unknown
Generic Reflectance [86.05191217004415]
表面反射率の不明なテクスチャレス物体の多視点再構成は難しい課題である。
本稿では,コライトスキャナーをベースとした,この問題に対するシンプルで堅牢な解法を提案する。
論文 参考訳(メタデータ) (2021-05-25T01:28:54Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。