論文の概要: Self-Supervised 2D Image to 3D Shape Translation with Disentangled
Representations
- arxiv url: http://arxiv.org/abs/2003.10016v2
- Date: Fri, 29 Jan 2021 22:55:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 05:41:51.884442
- Title: Self-Supervised 2D Image to 3D Shape Translation with Disentangled
Representations
- Title(参考訳): 不連続表現を用いた自己教師付き2次元画像から3次元形状変換
- Authors: Berk Kaya, Radu Timofte
- Abstract要約: 本稿では,2次元画像ビューと3次元オブジェクト形状を翻訳するフレームワークを提案する。
形状変換のための自己教師型画像変換フレームワークであるSISTを提案する。
- 参考スコア(独自算出の注目度): 92.89846887298852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a framework to translate between 2D image views and 3D object
shapes. Recent progress in deep learning enabled us to learn structure-aware
representations from a scene. However, the existing literature assumes that
pairs of images and 3D shapes are available for training in full supervision.
In this paper, we propose SIST, a Self-supervised Image to Shape Translation
framework that fulfills three tasks: (i) reconstructing the 3D shape from a
single image; (ii) learning disentangled representations for shape, appearance
and viewpoint; and (iii) generating a realistic RGB image from these
independent factors. In contrast to the existing approaches, our method does
not require image-shape pairs for training. Instead, it uses unpaired image and
shape datasets from the same object class and jointly trains image generator
and shape reconstruction networks. Our translation method achieves promising
results, comparable in quantitative and qualitative terms to the
state-of-the-art achieved by fully-supervised methods.
- Abstract(参考訳): 2次元画像ビューと3次元オブジェクト形状を変換するフレームワークを提案する。
近年のディープラーニングの進歩により,シーンから構造認識表現を学習できるようになった。
しかし、既存の文献では、画像と3d形状のペアが完全な監視の下でトレーニングに利用できると仮定している。
本稿では,3つの課題を満たす翻訳フレームワークを構築するための自己教師付き画像sistを提案する。
(i) 1枚の画像から3次元形状を再構成すること。
(ii)形状、外観、視点の絡み合った表現を学習すること。
3)これらの独立要因からリアルなRGB画像を生成する。
既存のアプローチとは対照的に,本手法ではトレーニングに画像形状ペアは不要である。
代わりに、同じオブジェクトクラスの未ペア画像と形状データセットを使用し、画像生成と形状再構成ネットワークを共同で訓練する。
本手法は,完全教師付き手法によって達成された最先端技術と定量的・定性的に比較し,有望な結果が得られる。
関連論文リスト
- Michelangelo: Conditional 3D Shape Generation based on Shape-Image-Text
Aligned Latent Representation [47.945556996219295]
本稿では2次元画像やテキストに基づいて3次元形状を生成する新しいアライメント前世代手法を提案する。
我々のフレームワークは、形状-画像-テキスト対応変分自動エンコーダ(SITA-VAE)と条件付き形状遅延拡散モデル(ASLDM)の2つのモデルで構成されている。
論文 参考訳(メタデータ) (2023-06-29T17:17:57Z) - Self-Supervised Image Representation Learning with Geometric Set
Consistency [50.12720780102395]
本稿では,3次元幾何整合性に基づく自己教師付き画像表現学習法を提案する。
具体的には、画像ビュー内の特徴整合性を強化するために、コントラスト学習フレームワークに3次元幾何学的整合性を導入する。
論文 参考訳(メタデータ) (2022-03-29T08:57:33Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - Learning Canonical 3D Object Representation for Fine-Grained Recognition [77.33501114409036]
本研究では,1枚の画像から3次元空間における物体の変動を再現する微粒な物体認識のための新しいフレームワークを提案する。
我々は,物体を3次元形状とその外観の合成として表現し,カメラ視点の影響を排除した。
深部表現に3次元形状と外観を併用することにより,物体の識別表現を学習する。
論文 参考訳(メタデータ) (2021-08-10T12:19:34Z) - Fully Understanding Generic Objects: Modeling, Segmentation, and
Reconstruction [33.95791350070165]
2D画像からジェネリックオブジェクトの3D構造を推定することは、コンピュータビジョンの長年の目標です。
半教師付き学習による代替アプローチを取る。
つまり、ジェネリックオブジェクトの2Dイメージでは、カテゴリ、形状、およびアルベドの潜在的な表現に分解します。
完全な形状とアルベドモデリングにより、モデリングとモデルフィッティングの両方で実際の2Dイメージを活用できることを示しています。
論文 参考訳(メタデータ) (2021-04-02T02:39:29Z) - Cycle-Consistent Generative Rendering for 2D-3D Modality Translation [21.962725416347855]
我々は、3Dオブジェクトのリアルなレンダリングを生成し、画像からリアルな3D形状を推測するモジュールを学習する。
生成ドメイン翻訳の手法を利用することで、弱い監視しか必要としない学習アルゴリズムを不適切なデータで定義することができる。
得られたモデルは、2D画像から3D形状、ポーズ、テクスチャ推論を行うことができるが、新しいテクスチャ化された3D形状やレンダリングを生成することもできる。
論文 参考訳(メタデータ) (2020-11-16T15:23:03Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。