論文の概要: Visual Enhanced 3D Point Cloud Reconstruction from A Single Image
- arxiv url: http://arxiv.org/abs/2108.07685v1
- Date: Tue, 17 Aug 2021 15:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 13:27:31.420563
- Title: Visual Enhanced 3D Point Cloud Reconstruction from A Single Image
- Title(参考訳): 単一画像からの視覚的3Dポイントクラウド再構成
- Authors: Guiju Ping, Mahdi Abolfazli Esfahani, Han Wang
- Abstract要約: 本稿では,境界に重きを置くことで,単一の画像から詳細な3次元点雲を復元できるフレームワークを提案する。
実験の結果,提案手法は既存の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 5.3168057389710075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving the challenging problem of 3D object reconstruction from a single
image appropriately gives existing technologies the ability to perform with a
single monocular camera rather than requiring depth sensors. In recent years,
thanks to the development of deep learning, 3D reconstruction of a single image
has demonstrated impressive progress. Existing researches use Chamfer distance
as a loss function to guide the training of the neural network. However, the
Chamfer loss will give equal weights to all points inside the 3D point clouds.
It tends to sacrifice fine-grained and thin structures to avoid incurring a
high loss, which will lead to visually unsatisfactory results. This paper
proposes a framework that can recover a detailed three-dimensional point cloud
from a single image by focusing more on boundaries (edge and corner points).
Experimental results demonstrate that the proposed method outperforms existing
techniques significantly, both qualitatively and quantitatively, and has fewer
training parameters.
- Abstract(参考訳): 一つの画像から3Dオブジェクトを復元する難しい問題を適切に解決することで、既存の技術は深度センサーを必要とせず、単一の単眼カメラで実行することができる。
近年、ディープラーニングの開発により、単一の画像の3次元再構成が印象的な進歩を遂げている。
既存の研究では、ニューラルネットワークのトレーニングを導くために、損失関数としてchamfer距離を使用している。
しかし、チャンファー損失は3次元点雲内の全ての点に等しい重みを与える。
細粒度で薄い構造を犠牲にして、高い損失を引き起こすのを避ける傾向があるため、視覚的に不十分な結果をもたらす。
本稿では,境界点(エッジ点,コーナー点)に着目し,より詳細な3次元点雲を単一画像から復元するフレームワークを提案する。
実験の結果,提案手法は質的および定量的に既存の手法を大きく上回り,訓練パラメータも少ないことがわかった。
関連論文リスト
- 2L3: Lifting Imperfect Generated 2D Images into Accurate 3D [16.66666619143761]
マルチビュー(MV)3次元再構成は,生成したMV画像を一貫した3次元オブジェクトに融合させる,有望なソリューションである。
しかし、生成された画像は、通常、一貫性のない照明、不整合幾何学、スパースビューに悩まされ、復元の質が低下する。
本稿では, 内在的分解誘導, 過渡的モノ先行誘導, および3つの問題に対処するための視認性向上を活用する新しい3次元再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T02:30:31Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - Points2NeRF: Generating Neural Radiance Fields from 3D point cloud [0.0]
ニューラルラジアンス場(NeRF)として3次元物体を表現することを提案する。
ハイパーネットワークのパラダイムを活用して、モデルをトレーニングして、関連するカラー値を持つ3Dポイントクラウドを取ります。
提案手法は効率的な3次元オブジェクト表現を提供し,既存手法に対するいくつかの利点を提供する。
論文 参考訳(メタデータ) (2022-06-02T20:23:33Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - Unsupervised Learning of Fine Structure Generation for 3D Point Clouds
by 2D Projection Matching [66.98712589559028]
微細な構造を持つ3次元点雲生成のための教師なしアプローチを提案する。
本手法は2次元シルエット画像から異なる解像度で微細な3次元構造を復元することができる。
論文 参考訳(メタデータ) (2021-08-08T22:15:31Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - From Image Collections to Point Clouds with Self-supervised Shape and
Pose Networks [53.71440550507745]
2次元画像から3Dモデルを再構成することは、コンピュータビジョンの基本的な問題の一つである。
本研究では,1枚の画像から3次元オブジェクトを再構成する深層学習手法を提案する。
我々は,3次元点雲の再構成と推定ネットワークの自己教師方式の両方を学習する。
論文 参考訳(メタデータ) (2020-05-05T04:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。