論文の概要: Fully Understanding Generic Objects: Modeling, Segmentation, and
Reconstruction
- arxiv url: http://arxiv.org/abs/2104.00858v1
- Date: Fri, 2 Apr 2021 02:39:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 21:24:36.253528
- Title: Fully Understanding Generic Objects: Modeling, Segmentation, and
Reconstruction
- Title(参考訳): ジェネリックオブジェクトを完全に理解する:モデリング、セグメンテーション、再構築
- Authors: Feng Liu, Luan Tran, Xiaoming Liu
- Abstract要約: 2D画像からジェネリックオブジェクトの3D構造を推定することは、コンピュータビジョンの長年の目標です。
半教師付き学習による代替アプローチを取る。
つまり、ジェネリックオブジェクトの2Dイメージでは、カテゴリ、形状、およびアルベドの潜在的な表現に分解します。
完全な形状とアルベドモデリングにより、モデリングとモデルフィッティングの両方で実際の2Dイメージを活用できることを示しています。
- 参考スコア(独自算出の注目度): 33.95791350070165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inferring 3D structure of a generic object from a 2D image is a long-standing
objective of computer vision. Conventional approaches either learn completely
from CAD-generated synthetic data, which have difficulty in inference from real
images, or generate 2.5D depth image via intrinsic decomposition, which is
limited compared to the full 3D reconstruction. One fundamental challenge lies
in how to leverage numerous real 2D images without any 3D ground truth. To
address this issue, we take an alternative approach with semi-supervised
learning. That is, for a 2D image of a generic object, we decompose it into
latent representations of category, shape and albedo, lighting and camera
projection matrix, decode the representations to segmented 3D shape and albedo
respectively, and fuse these components to render an image well approximating
the input image. Using a category-adaptive 3D joint occupancy field (JOF), we
show that the complete shape and albedo modeling enables us to leverage real 2D
images in both modeling and model fitting. The effectiveness of our approach is
demonstrated through superior 3D reconstruction from a single image, being
either synthetic or real, and shape segmentation.
- Abstract(参考訳): 2次元画像から汎用オブジェクトの3次元構造を推測することは、コンピュータビジョンの長年の目的である。
従来のアプローチでは、実際の画像からの推測が難しいCAD生成合成データから完全に学習するか、あるいは本質的な分解によって2.5次元の深度画像を生成する。
基本的な課題の1つは、多くの実際の2D画像を、3D地上の真実なしに活用する方法である。
この問題に対処するため,半教師付き学習の代替手法を提案する。
すなわち、汎用オブジェクトの2次元画像に対して、カテゴリ、形状、アルベドの潜在表現、照明、カメラ投影行列に分解し、それぞれ分割された3d形状とアルベドに表現をデコードし、これらの要素を融合して入力画像に近似した画像をうまくレンダリングする。
カテゴリー適応型3次元関節占有場 (JOF) を用いて, 完全な形状とアルベドモデリングにより, モデリングとモデルフィッティングの両方において実2次元画像を活用することができることを示す。
本手法の有効性は,単一の画像からの優れた3次元再構成,合成的,実的,形状的セグメンテーションによって示される。
関連論文リスト
- 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - GAN2X: Non-Lambertian Inverse Rendering of Image GANs [85.76426471872855]
GAN2Xは、教師なし画像のみをトレーニングに使用する、教師なし逆レンダリングの新しい手法である。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なしの単視3次元顔再構成の最先端性能を実現することができた。
論文 参考訳(メタデータ) (2022-06-18T16:58:49Z) - 3D object reconstruction and 6D-pose estimation from 2D shape for
robotic grasping of objects [2.330913682033217]
本研究では,2次元画像からの3次元オブジェクト再構成と6次元位置推定手法を提案する。
2次元画像から直接変換パラメータを計算することにより、登録プロセスに必要な自由パラメータの数を削減できる。
ロボット実験では、オブジェクトの把握が成功し、実際の環境でのユーザビリティが実証される。
論文 参考訳(メタデータ) (2022-03-02T11:58:35Z) - Learning Canonical 3D Object Representation for Fine-Grained Recognition [77.33501114409036]
本研究では,1枚の画像から3次元空間における物体の変動を再現する微粒な物体認識のための新しいフレームワークを提案する。
我々は,物体を3次元形状とその外観の合成として表現し,カメラ視点の影響を排除した。
深部表現に3次元形状と外観を併用することにより,物体の識別表現を学習する。
論文 参考訳(メタデータ) (2021-08-10T12:19:34Z) - Cycle-Consistent Generative Rendering for 2D-3D Modality Translation [21.962725416347855]
我々は、3Dオブジェクトのリアルなレンダリングを生成し、画像からリアルな3D形状を推測するモジュールを学習する。
生成ドメイン翻訳の手法を利用することで、弱い監視しか必要としない学習アルゴリズムを不適切なデータで定義することができる。
得られたモデルは、2D画像から3D形状、ポーズ、テクスチャ推論を行うことができるが、新しいテクスチャ化された3D形状やレンダリングを生成することもできる。
論文 参考訳(メタデータ) (2020-11-16T15:23:03Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z) - Self-Supervised 2D Image to 3D Shape Translation with Disentangled
Representations [92.89846887298852]
本稿では,2次元画像ビューと3次元オブジェクト形状を翻訳するフレームワークを提案する。
形状変換のための自己教師型画像変換フレームワークであるSISTを提案する。
論文 参考訳(メタデータ) (2020-03-22T22:44:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。