論文の概要: Geometric Processing for Image-based 3D Object Modeling
- arxiv url: http://arxiv.org/abs/2106.14307v1
- Date: Sun, 27 Jun 2021 18:33:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 18:06:00.443031
- Title: Geometric Processing for Image-based 3D Object Modeling
- Title(参考訳): 画像に基づく3次元物体モデリングのための幾何学的処理
- Authors: Rongjun Qin, Xu Huang
- Abstract要約: 本稿では,幾何処理の3つの主要構成要素の最先端手法について紹介する:(1)ジオレファレンス; 2)画像密度マッチング3)テクスチャマッピング。
3Dオブジェクト再構成ワークフローにおける画像の大部分が自動化された幾何処理は、現実的な3Dモデリングの重要な部分となっている。
- 参考スコア(独自算出の注目度): 2.6397379133308214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based 3D object modeling refers to the process of converting raw
optical images to 3D digital representations of the objects. Very often, such
models are desired to be dimensionally true, semantically labeled with
photorealistic appearance (reality-based modeling). Laser scanning was deemed
as the standard (and direct) way to obtaining highly accurate 3D measurements
of objects, while one would have to abide the high acquisition cost and its
unavailability on some of the platforms. Nowadays the image-based methods
backboned by the recently developed advanced dense image matching algorithms
and geo-referencing paradigms, are becoming the dominant approaches, due to its
high flexibility, availability and low cost. The largely automated geometric
processing of images in a 3D object reconstruction workflow, from
ordered/unordered raw imagery to textured meshes, is becoming a critical part
of the reality-based 3D modeling. This article summarizes the overall geometric
processing workflow, with focuses on introducing the state-of-the-art methods
of three major components of geometric processing: 1) geo-referencing; 2) Image
dense matching 3) texture mapping. Finally, we will draw conclusions and share
our outlooks of the topics discussed in this article.
- Abstract(参考訳): 画像に基づく3Dオブジェクトモデリングは、生の光学画像をオブジェクトの3Dデジタル表現に変換するプロセスを指す。
このようなモデルは、しばしば、次元的に真で、意味的にフォトリアリスティックな外観(現実に基づくモデリング)でラベル付けされることが望まれる。
レーザースキャンは、高精度な物体の3D計測を得るための標準(および直接)の方法と見なされ、高い取得コストと一部のプラットフォームでの利用不能を回避しなければならない。
近年,高度な高密度画像マッチングアルゴリズムと地理参照パラダイムによってバックボーンとなる画像ベース手法が,その柔軟性,可用性,低コストの面から主流となっている。
3Dオブジェクト再構築ワークフローにおける画像のほぼ自動的な幾何処理は、秩序付き/非秩序な生画像からテクスチャ化されたメッシュに至るまで、現実的な3Dモデリングの重要な部分となっている。
本稿では、幾何学的処理の3つの主要コンポーネントの最先端手法の導入に焦点を当てた、全体的な幾何学的処理のワークフローを要約する: 1)ジオレファレンス; 2)画像密集マッチング 3)テクスチャマッピング。
最後に、結論を導き、この記事で議論されたトピックの展望を共有します。
関連論文リスト
- LIST: Learning Implicitly from Spatial Transformers for Single-View 3D
Reconstruction [5.107705550575662]
Listは、局所的およびグローバルな画像特徴を活用して、単一の画像から3Dオブジェクトの幾何学的および位相的構造を再構築する、新しいニューラルネットワークである。
合成画像と実世界の画像から3Dオブジェクトを再構成する際のモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-07-23T01:01:27Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Towards Hard-pose Virtual Try-on via 3D-aware Global Correspondence
Learning [70.75369367311897]
3D対応のグローバルな対応は、グローバルな意味的相関、局所的な変形、および3D人体の幾何学的先行を共同でエンコードする信頼性のあるフローである。
対向ジェネレータは、3D認識フローによって歪んだ衣服と、対象者の画像とを入力として、フォトリアリスティックな試着結果を合成する。
論文 参考訳(メタデータ) (2022-11-25T12:16:21Z) - 3D Magic Mirror: Clothing Reconstruction from a Single Image via a
Causal Perspective [96.65476492200648]
本研究は, 自己監督型3D衣料の再構築手法について検討することを目的とする。
1枚の2D画像から人間の衣服の形状やテクスチャを復元する。
論文 参考訳(メタデータ) (2022-04-27T17:46:55Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D
Object Detection [83.57300674285133]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Hybrid Approach for 3D Head Reconstruction: Using Neural Networks and
Visual Geometry [3.970492757288025]
本稿では,深層学習と幾何学的手法に基づくハイブリッド手法を用いて,複数の画像から3次元頭部を再構築する手法を提案する。
U-netアーキテクチャに基づくエンコーダデコーダネットワークを提案し、合成データのみを学習する。
論文 参考訳(メタデータ) (2021-04-28T11:31:35Z) - Fully Understanding Generic Objects: Modeling, Segmentation, and
Reconstruction [33.95791350070165]
2D画像からジェネリックオブジェクトの3D構造を推定することは、コンピュータビジョンの長年の目標です。
半教師付き学習による代替アプローチを取る。
つまり、ジェネリックオブジェクトの2Dイメージでは、カテゴリ、形状、およびアルベドの潜在的な表現に分解します。
完全な形状とアルベドモデリングにより、モデリングとモデルフィッティングの両方で実際の2Dイメージを活用できることを示しています。
論文 参考訳(メタデータ) (2021-04-02T02:39:29Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。