論文の概要: Shadows Shed Light on 3D Objects
- arxiv url: http://arxiv.org/abs/2206.08990v1
- Date: Fri, 17 Jun 2022 19:58:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 18:45:04.594187
- Title: Shadows Shed Light on 3D Objects
- Title(参考訳): 影が3dオブジェクトに光を放つ
- Authors: Ruoshi Liu, Sachit Menon, Chengzhi Mao, Dennis Park, Simon Stent, Carl
Vondrick
- Abstract要約: 我々は、物体の3次元形状、ポーズ、光源の位置を推測できる微分可能な画像形成モデルを作成する。
我々のアプローチは、地上の暗黒マスクが未知の現実世界の画像に対して堅牢である。
- 参考スコア(独自算出の注目度): 23.14510850163136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D reconstruction is a fundamental problem in computer vision, and the task
is especially challenging when the object to reconstruct is partially or fully
occluded. We introduce a method that uses the shadows cast by an unobserved
object in order to infer the possible 3D volumes behind the occlusion. We
create a differentiable image formation model that allows us to jointly infer
the 3D shape of an object, its pose, and the position of a light source. Since
the approach is end-to-end differentiable, we are able to integrate learned
priors of object geometry in order to generate realistic 3D shapes of different
object categories. Experiments and visualizations show that the method is able
to generate multiple possible solutions that are consistent with the
observation of the shadow. Our approach works even when the position of the
light source and object pose are both unknown. Our approach is also robust to
real-world images where ground-truth shadow mask is unknown.
- Abstract(参考訳): 3次元再構成はコンピュータビジョンにおける根本的な問題であり、復元対象が部分的にあるいは完全にオクルードされている場合、特に課題である。
咬合の背後にある可能性のある3dボリュームを推定するために,観察されていない物体がキャストする影を用いる手法を提案する。
我々は、物体の3次元形状、ポーズ、光源の位置を共同で推測できる、微分可能な画像形成モデルを作成する。
このアプローチはエンドツーエンドで微分可能であるため、異なるオブジェクトカテゴリの現実的な3d形状を生成するために、オブジェクト幾何の学習済みの事前事項を統合することができる。
実験と可視化により、この手法は影の観測と一致する複数の可能な解を生成できることが示されている。
我々のアプローチは、光源の位置とオブジェクトのポーズが未知であっても機能する。
我々のアプローチは、地上のシャドウマスクが不明な現実世界のイメージにも頑健です。
関連論文リスト
- 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Towards High-Fidelity Single-view Holistic Reconstruction of Indoor
Scenes [50.317223783035075]
単視点画像から総合的な3次元屋内シーンを再構築するための新しい枠組みを提案する。
詳細なオブジェクト再構成のためのインスタンス整列型暗黙関数(InstPIFu)を提案する。
私たちのコードとモデルは公開されます。
論文 参考訳(メタデータ) (2022-07-18T14:54:57Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z) - Learning Canonical 3D Object Representation for Fine-Grained Recognition [77.33501114409036]
本研究では,1枚の画像から3次元空間における物体の変動を再現する微粒な物体認識のための新しいフレームワークを提案する。
我々は,物体を3次元形状とその外観の合成として表現し,カメラ視点の影響を排除した。
深部表現に3次元形状と外観を併用することにより,物体の識別表現を学習する。
論文 参考訳(メタデータ) (2021-08-10T12:19:34Z) - GaussiGAN: Controllable Image Synthesis with 3D Gaussians from Unposed
Silhouettes [48.642181362172906]
対象物の粗い3次元表現を多視点2次元マスク監視から学習するアルゴリズムを提案する。
既存のボクセルを用いた物体再構成法とは対照的に,提案手法は生成した形状やポーズを表現することを学ぶ。
リアル照明を用いた合成データセットの結果を示し、対話的なポーズによるオブジェクト挿入を実証する。
論文 参考訳(メタデータ) (2021-06-24T17:47:58Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Neural Articulated Radiance Field [90.91714894044253]
本稿では,画像から学習した明瞭な物体に対する新しい変形可能な3次元表現であるニューラルArticulated Radiance Field(NARF)を提案する。
実験の結果,提案手法は効率的であり,新しいポーズにうまく一般化できることがわかった。
論文 参考訳(メタデータ) (2021-04-07T13:23:14Z) - Monocular Differentiable Rendering for Self-Supervised 3D Object
Detection [21.825158925459732]
単分子画像からの3次元物体検出は、深さとスケールの射影的絡み合いにより不適切な問題である。
テクスチャ化された3次元形状の再構成と剛体物体のポーズ推定のための新しい自己教師手法を提案する。
本手法は,画像中の物体の3次元位置とメッシュを,異なるレンダリングと自己教師対象を用いて予測する。
論文 参考訳(メタデータ) (2020-09-30T09:21:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。