論文の概要: From Image Collections to Point Clouds with Self-supervised Shape and
Pose Networks
- arxiv url: http://arxiv.org/abs/2005.01939v1
- Date: Tue, 5 May 2020 04:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-06 14:18:25.491603
- Title: From Image Collections to Point Clouds with Self-supervised Shape and
Pose Networks
- Title(参考訳): 画像収集から自己教師形とポーズネットワークをもつ点雲へ
- Authors: K L Navaneet, Ansu Mathew, Shashank Kashyap, Wei-Chih Hung, Varun
Jampani and R. Venkatesh Babu
- Abstract要約: 2次元画像から3Dモデルを再構成することは、コンピュータビジョンの基本的な問題の一つである。
本研究では,1枚の画像から3次元オブジェクトを再構成する深層学習手法を提案する。
我々は,3次元点雲の再構成と推定ネットワークの自己教師方式の両方を学習する。
- 参考スコア(独自算出の注目度): 53.71440550507745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing 3D models from 2D images is one of the fundamental problems in
computer vision. In this work, we propose a deep learning technique for 3D
object reconstruction from a single image. Contrary to recent works that either
use 3D supervision or multi-view supervision, we use only single view images
with no pose information during training as well. This makes our approach more
practical requiring only an image collection of an object category and the
corresponding silhouettes. We learn both 3D point cloud reconstruction and pose
estimation networks in a self-supervised manner, making use of differentiable
point cloud renderer to train with 2D supervision. A key novelty of the
proposed technique is to impose 3D geometric reasoning into predicted 3D point
clouds by rotating them with randomly sampled poses and then enforcing cycle
consistency on both 3D reconstructions and poses. In addition, using
single-view supervision allows us to do test-time optimization on a given test
image. Experiments on the synthetic ShapeNet and real-world Pix3D datasets
demonstrate that our approach, despite using less supervision, can achieve
competitive performance compared to pose-supervised and multi-view supervised
approaches.
- Abstract(参考訳): 2次元画像から3Dモデルを再構成することは、コンピュータビジョンの基本的な問題の一つである。
本研究では,単一の画像から3次元物体を再構成する深層学習手法を提案する。
3次元監督や多視点監視を用いた最近の研究とは対照的に、トレーニング中にポーズ情報のない単一のビューイメージのみを使用する。
これにより、オブジェクトカテゴリと対応するシルエットの画像収集のみを必要とするアプローチがより実践的になる。
我々は3Dポイントクラウドの再構成と推定ネットワークの自己教師方式の両方を学び、異なるポイントクラウドレンダラーを用いて2Dインスペクションでトレーニングする。
提案手法の重要な特徴は,ランダムにサンプリングされたポーズで回転させることで,予測した3次元点雲に3次元幾何学的推論を課すことである。
さらに、単一ビューの監視を使用することで、テストイメージに対してテスト時の最適化を行うことができます。
合成ShapeNetと実世界のPix3Dデータセットの実験により、我々のアプローチは、監督の少ないにもかかわらず、ポーズ監視や多視点教師付きアプローチと比較して競争性能が向上することを示した。
関連論文リスト
- Take-A-Photo: 3D-to-2D Generative Pre-training of Point Cloud Models [97.58685709663287]
生成事前学習は、2次元視覚における基本モデルの性能を高めることができる。
3Dビジョンでは、トランスフォーマーベースのバックボーンの過度な信頼性と、点雲の秩序のない性質により、生成前のトレーニングのさらなる発展が制限されている。
本稿では,任意の点クラウドモデルに適用可能な3D-to-2D生成事前学習法を提案する。
論文 参考訳(メタデータ) (2023-07-27T16:07:03Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - CrossPoint: Self-Supervised Cross-Modal Contrastive Learning for 3D
Point Cloud Understanding [2.8661021832561757]
CrossPointは、転送可能な3Dポイントクラウド表現を学習するための、単純なクロスモーダルコントラスト学習アプローチである。
提案手法は,従来の教師なし学習手法よりも,3次元オブジェクト分類やセグメンテーションなど,さまざまな下流タスクにおいて優れていた。
論文 参考訳(メタデータ) (2022-03-01T18:59:01Z) - Toward Realistic Single-View 3D Object Reconstruction with Unsupervised
Learning from Multiple Images [18.888384816156744]
マルチイメージデータセットから3次元再構成ネットワークを学習するための新しい教師なしアルゴリズムを提案する。
我々のアルゴリズムはより一般的であり、特別の場合として対称性が要求されるシナリオをカバーしている。
我々の手法は、品質と堅牢性の両方において、これまでの仕事を上回っている。
論文 参考訳(メタデータ) (2021-09-06T08:34:04Z) - Unsupervised Learning of Fine Structure Generation for 3D Point Clouds
by 2D Projection Matching [66.98712589559028]
微細な構造を持つ3次元点雲生成のための教師なしアプローチを提案する。
本手法は2次元シルエット画像から異なる解像度で微細な3次元構造を復元することができる。
論文 参考訳(メタデータ) (2021-08-08T22:15:31Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z) - Chained Representation Cycling: Learning to Estimate 3D Human Pose and
Shape by Cycling Between Representations [73.11883464562895]
本稿では,教師なし,あるいは教師なしの学習を容易にする新しいアーキテクチャを提案する。
本研究では,非ペア画像と無注釈画像から3次元人物のポーズと形状を学習することにより,その手法を実証する。
人間をモデル化するための結果を示す一方で、私たちの定式化は一般的であり、他の視覚問題にも適用できる。
論文 参考訳(メタデータ) (2020-01-06T14:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。