論文の概要: DRWR: A Differentiable Renderer without Rendering for Unsupervised 3D
Structure Learning from Silhouette Images
- arxiv url: http://arxiv.org/abs/2007.06127v1
- Date: Sun, 12 Jul 2020 23:13:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 06:07:08.746113
- Title: DRWR: A Differentiable Renderer without Rendering for Unsupervised 3D
Structure Learning from Silhouette Images
- Title(参考訳): DRWR:シルエット画像からの教師なし3次元構造学習のためのレンダリングなし微分レンダリング
- Authors: Zhizhong Han and Chao Chen and Yu-Shen Liu and Matthias Zwicker
- Abstract要約: 2次元画像から教師なし3次元構造学習のための微分可能なレンダリング(DRWR)を提案する。
DRWRは、再構成された3次元点雲の射影が基底の真理天体シルエットをどれだけよく覆っているかを評価する、単純だが効果的な損失に依存している。
その結果, DRWRの精度は, 従来手法よりも質的, 定量的に優れていたことがわかった。
- 参考スコア(独自算出の注目度): 70.54067838587692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable renderers have been used successfully for unsupervised 3D
structure learning from 2D images because they can bridge the gap between 3D
and 2D. To optimize 3D shape parameters, current renderers rely on pixel-wise
losses between rendered images of 3D reconstructions and ground truth images
from corresponding viewpoints. Hence they require interpolation of the
recovered 3D structure at each pixel, visibility handling, and optionally
evaluating a shading model. In contrast, here we propose a Differentiable
Renderer Without Rendering (DRWR) that omits these steps. DRWR only relies on a
simple but effective loss that evaluates how well the projections of
reconstructed 3D point clouds cover the ground truth object silhouette.
Specifically, DRWR employs a smooth silhouette loss to pull the projection of
each individual 3D point inside the object silhouette, and a structure-aware
repulsion loss to push each pair of projections that fall inside the silhouette
far away from each other. Although we omit surface interpolation, visibility
handling, and shading, our results demonstrate that DRWR achieves
state-of-the-art accuracies under widely used benchmarks, outperforming
previous methods both qualitatively and quantitatively. In addition, our
training times are significantly lower due to the simplicity of DRWR.
- Abstract(参考訳): 異なるレンダラーは、3Dと2Dのギャップを埋めるため、2D画像から教師なしの3D構造学習に成功している。
3次元形状パラメータを最適化するために、電流レンダラーは3次元再構成のレンダリング画像と対応する視点からの地上の真理画像の間のピクセルワイズロスに依存する。
したがって、各ピクセルで回収された3D構造の補間、可視性ハンドリング、シェーディングモデルの評価が必要となる。
対照的に、これらのステップを省略するDRWR(Dariable Renderer Without Rendering)を提案する。
DRWRは、再構成された3D点雲の投影が基底の真理天体シルエットをどれだけよく覆っているかを評価する、単純だが効果的な損失にのみ依存する。
具体的には、DRWRは、物体のシルエット内にある個々の3Dポイントのプロジェクションを引くためにスムーズなシルエットの損失と、シルエット内にある各2つのプロジェクションを互いに遠くに押す構造を意識した反発損失を用いる。
表面補間,視認性ハンドリング,シェーディングは省略したが,dwrは広く使用されているベンチマークで最先端の精度を達成し,質的および定量的に従来の手法を上回った。
さらに,DRWRの簡易化により,トレーニング時間が大幅に短縮された。
関連論文リスト
- Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - VCD-Texture: Variance Alignment based 3D-2D Co-Denoising for Text-Guided Texturing [22.39760469467524]
本研究では,2次元拡散モデルと3次元拡散モデルの間のモーダルギャップに対処する分散テクスチャ合成を提案する。
我々は、競合する領域との詳細な関係を改善するために、塗装モジュールを提示する。
論文 参考訳(メタデータ) (2024-07-05T12:11:33Z) - GAN2X: Non-Lambertian Inverse Rendering of Image GANs [85.76426471872855]
GAN2Xは、教師なし画像のみをトレーニングに使用する、教師なし逆レンダリングの新しい手法である。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なしの単視3次元顔再構成の最先端性能を実現することができた。
論文 参考訳(メタデータ) (2022-06-18T16:58:49Z) - 3D-Aware Indoor Scene Synthesis with Depth Priors [62.82867334012399]
既存の手法では、室内配置や内部の物体の多様さのため、屋内シーンのモデル化に失敗する。
室内のシーンは共通な内在構造を持たず、2次元画像のみを用いるだけでは3次元形状のモデルが適切にガイドできない。
論文 参考訳(メタデータ) (2022-02-17T09:54:29Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z) - Style Agnostic 3D Reconstruction via Adversarial Style Transfer [23.304453155586312]
物体の3次元形状を画像から再構成することは、コンピュータビジョンにおける大きな課題である。
本研究では,背景を持つ画像から3次元物体を識別可能な学習法を提案する。
論文 参考訳(メタデータ) (2021-10-20T21:24:44Z) - Unsupervised Learning of Fine Structure Generation for 3D Point Clouds
by 2D Projection Matching [66.98712589559028]
微細な構造を持つ3次元点雲生成のための教師なしアプローチを提案する。
本手法は2次元シルエット画像から異なる解像度で微細な3次元構造を復元することができる。
論文 参考訳(メタデータ) (2021-08-08T22:15:31Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。