論文の概要: Method for the generation of depth images for view-based shape retrieval
of 3D CAD model from partial point cloud
- arxiv url: http://arxiv.org/abs/2006.16500v1
- Date: Tue, 30 Jun 2020 03:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:48:02.413638
- Title: Method for the generation of depth images for view-based shape retrieval
of 3D CAD model from partial point cloud
- Title(参考訳): 部分点雲からの3次元CADモデルのビューベース形状検索のための深度画像生成法
- Authors: Hyungki Kim, Moohyun Cha, Duhwan Mun
- Abstract要約: 認識プロセスはドメイン知識と集中労働の専門知識を必要とするため、しばしば3D再構築においてボトルネックとなる。
本稿では,ポイントクラウドからの3次元形状検索のための視点推定と画像分解能推定手法を提案する。
- 参考スコア(独自算出の注目度): 6.330505033941365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A laser scanner can easily acquire the geometric data of physical
environments in the form of a point cloud. Recognizing objects from a point
cloud is often required for industrial 3D reconstruction, which should include
not only geometry information but also semantic information. However,
recognition process is often a bottleneck in 3D reconstruction because it
requires expertise on domain knowledge and intensive labor. To address this
problem, various methods have been developed to recognize objects by retrieving
the corresponding model in the database from an input geometry query. In recent
years, the technique of converting geometric data into an image and applying
view-based 3D shape retrieval has demonstrated high accuracy. Depth image which
encodes depth value as intensity of pixel is frequently used for view-based 3D
shape retrieval. However, geometric data collected from objects is often
incomplete due to the occlusions and the limit of line of sight. Image
generated by occluded point clouds lowers the performance of view-based 3D
object retrieval due to loss of information. In this paper, we propose a method
of viewpoint and image resolution estimation method for view-based 3D shape
retrieval from point cloud query. Automatic selection of viewpoint and image
resolution by calculating the data acquisition rate and density from the
sampled viewpoints and image resolutions are proposed. The retrieval
performance from the images generated by the proposed method is experimented
and compared for various dataset. Additionally, view-based 3D shape retrieval
performance with deep convolutional neural network has been experimented with
the proposed method.
- Abstract(参考訳): レーザスキャナは、点雲の形で物理環境の幾何学的データを容易に取得することができる。
点雲からの物体の認識は、幾何学情報だけでなく意味情報も含む産業用3D再構成に必要とされることが多い。
しかし、認識プロセスはドメイン知識と集中労働の専門知識を必要とするため、しばしば3D再構成においてボトルネックとなる。
この問題に対処するため、入力幾何クエリからデータベースの対応するモデルを取得することでオブジェクトを認識する様々な手法が開発されている。
近年,図形データを画像に変換し,図形に基づく3次元形状検索を適用する技術は,精度が高くなっている。
深度値をピクセルの強度としてエンコードした深度画像は、ビューベースの3d形状検索に頻繁に使用される。
しかし、物体から収集された幾何学的データは、しばしば閉塞と視線の限界のために不完全である。
閉鎖点雲によって生成された画像は、情報損失によるビューベース3Dオブジェクト検索の性能を低下させる。
本稿では,ポイントクラウドからの3次元形状検索のための視点推定法と画像分解能推定法を提案する。
データ取得率と密度をサンプル視点と画像解像度から算出し,視点と画像解像度の自動選択を提案する。
提案手法によって生成された画像からの検索性能を実験し,各種データセットと比較した。
さらに、深部畳み込みニューラルネットワークを用いたビューベース3次元形状検索性能を提案手法により実験した。
関連論文リスト
- Parametric Depth Based Feature Representation Learning for Object
Detection and Segmentation in Bird's Eye View [44.78243406441798]
本稿では,このような特徴変換をモデル化するために,深度などの幾何学的情報を活用することに焦点を当てる。
まず2次元画像の特徴を,各ビューの画素ごとのパラメトリック深度分布を予測して,エゴ車に定義された3次元空間に引き上げる。
次に、深度からBEVフレームへの3次元空間占有度に基づいて、3次元特徴体積を集約する。
論文 参考訳(メタデータ) (2023-07-09T06:07:22Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Flow-based GAN for 3D Point Cloud Generation from a Single Image [16.04710129379503]
本稿では,任意の解像度の点群をサンプリングするためのフローベース明示的生成モデルを継承する,ハイブリッドな明示的生成モデルを提案する。
大規模合成データセットShapeNetについて評価し,提案手法の優れた性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-08T17:58:20Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - Monocular Differentiable Rendering for Self-Supervised 3D Object
Detection [21.825158925459732]
単分子画像からの3次元物体検出は、深さとスケールの射影的絡み合いにより不適切な問題である。
テクスチャ化された3次元形状の再構成と剛体物体のポーズ推定のための新しい自己教師手法を提案する。
本手法は,画像中の物体の3次元位置とメッシュを,異なるレンダリングと自己教師対象を用いて予測する。
論文 参考訳(メタデータ) (2020-09-30T09:21:43Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。