論文の概要: MV2Cyl: Reconstructing 3D Extrusion Cylinders from Multi-View Images
- arxiv url: http://arxiv.org/abs/2406.10853v2
- Date: Mon, 04 Nov 2024 11:37:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:41.563773
- Title: MV2Cyl: Reconstructing 3D Extrusion Cylinders from Multi-View Images
- Title(参考訳): MV2Cyl:マルチビュー画像からの3次元押出しシリンダの再構成
- Authors: Eunji Hong, Minh Hieu Nguyen, Mikaela Angelina Uy, Minhyuk Sung,
- Abstract要約: 2次元多視点画像から3次元を再構成する新しい手法であるMV2Cylを提案する。
本研究では,2次元スケッチと抽出パラメータ推定において最適な精度で最適な再構成結果を得る。
- 参考スコア(独自算出の注目度): 13.255044855902408
- License:
- Abstract: We present MV2Cyl, a novel method for reconstructing 3D from 2D multi-view images, not merely as a field or raw geometry but as a sketch-extrude CAD model. Extracting extrusion cylinders from raw 3D geometry has been extensively researched in computer vision, while the processing of 3D data through neural networks has remained a bottleneck. Since 3D scans are generally accompanied by multi-view images, leveraging 2D convolutional neural networks allows these images to be exploited as a rich source for extracting extrusion cylinder information. However, we observe that extracting only the surface information of the extrudes and utilizing it results in suboptimal outcomes due to the challenges in the occlusion and surface segmentation. By synergizing with the extracted base curve information, we achieve the optimal reconstruction result with the best accuracy in 2D sketch and extrude parameter estimation. Our experiments, comparing our method with previous work that takes a raw 3D point cloud as input, demonstrate the effectiveness of our approach by taking advantage of multi-view images.
- Abstract(参考訳): 本稿では,2次元多視点画像から3次元を再構成する新しい手法MV2Cylについて述べる。
生の3D形状から押出シリンダーを抽出する手法はコンピュータビジョンにおいて広く研究されているが、ニューラルネットワークによる3Dデータの処理はいまだにボトルネックとなっている。
3Dスキャンは一般的にマルチビュー画像が伴うため、2D畳み込みニューラルネットワークを利用することで、これらの画像は押出シリンダー情報を抽出するためのリッチソースとして利用することができる。
しかし, 押出物の表面情報のみを抽出し, 利用することで, 閉塞や表面セグメンテーションの課題により, 最適以下の結果が得られることが観察された。
抽出した基本曲線情報と相乗化することにより,2次元スケッチにおいて最適な精度で最適な再構成結果とパラメータ推定を行う。
提案手法を生の3次元点雲を入力とする従来手法と比較し,マルチビュー画像の活用によるアプローチの有効性を実証した。
関連論文リスト
- Reference-free Axial Super-resolution of 3D Microscopy Images using Implicit Neural Representation with a 2D Diffusion Prior [4.1326413814647545]
学習に基づく3次元超解像モデルの訓練には、真理等方性ボリュームが必要であり、次元の呪いに苦しむ。
既存の方法では、2Dニューラルネットワークを使用して各軸スライスを再構築し、最終的には体積全体をまとめる。
独立軸スライスにより最適化された場合でも3次元コヒーレンシを実現する暗黙的ニューラル表現(INR)に基づく再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T09:14:12Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - SepicNet: Sharp Edges Recovery by Parametric Inference of Curves in 3D
Shapes [16.355677959323426]
本稿では,3次元形状の鋭いエッジを原始曲線として検出・パラメータ化するための新しいディープネットワークであるSepicNetを紹介する。
我々は,一様サンプリングよりも鋭い特徴を捕集する適応点雲サンプリング手法を開発した。
論文 参考訳(メタデータ) (2023-04-13T13:37:21Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Point2Cyl: Reverse Engineering 3D Objects from Point Clouds to Extrusion
Cylinders [25.389088434370066]
本稿では,生の3次元点雲を一組の押出シリンダに変換する教師ネットワークであるPoint2Cylを提案する。
提案手法は,2つのCADデータセット上での最良の性能を示す。
論文 参考訳(メタデータ) (2021-12-17T05:22:28Z) - H3D-Net: Few-Shot High-Fidelity 3D Head Reconstruction [27.66008315400462]
表面形状を暗黙的に表現する最近の学習手法は、多視点3次元再構成の問題において顕著な結果を示している。
我々はこれらの制限を,数発のフル3次元頭部再構成の特定の問題に対処する。
暗黙の表現を用いて,数千個の不完全な生スキャンから3次元頭部形状モデルを学習する。
論文 参考訳(メタデータ) (2021-07-26T23:04:18Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。