論文の概要: Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild
- arxiv url: http://arxiv.org/abs/2007.08939v1
- Date: Fri, 17 Jul 2020 12:34:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:16:06.456316
- Title: Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild
- Title(参考訳): 幾何学的対応場:野生における3次元ポスリファインメントの学習可能なレンダリング
- Authors: Alexander Grabner, Yaming Wang, Peizhao Zhang, Peihong Guo, Tong Xiao,
Peter Vajda, Peter M. Roth, Vincent Lepetit
- Abstract要約: 野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
- 参考スコア(独自算出の注目度): 96.09941542587865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel 3D pose refinement approach based on differentiable
rendering for objects of arbitrary categories in the wild. In contrast to
previous methods, we make two main contributions: First, instead of comparing
real-world images and synthetic renderings in the RGB or mask space, we compare
them in a feature space optimized for 3D pose refinement. Second, we introduce
a novel differentiable renderer that learns to approximate the rasterization
backward pass from data instead of relying on a hand-crafted algorithm. For
this purpose, we predict deep cross-domain correspondences between RGB images
and 3D model renderings in the form of what we call geometric correspondence
fields. These correspondence fields serve as pixel-level gradients which are
analytically propagated backward through the rendering pipeline to perform a
gradient-based optimization directly on the 3D pose. In this way, we precisely
align 3D models to objects in RGB images which results in significantly
improved 3D pose estimates. We evaluate our approach on the challenging Pix3D
dataset and achieve up to 55% relative improvement compared to state-of-the-art
refinement methods in multiple metrics.
- Abstract(参考訳): 野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
従来の手法とは対照的に、我々は2つの主な貢献をしている: まず、RGBやマスク空間における実世界の画像と合成レンダリングを比較する代わりに、3Dポーズの精細化に最適化された特徴空間でそれらを比較する。
次に,手作りアルゴリズムに頼るのではなく,データからのラスタ化の後方通過を近似する新しい微分可能レンダラを提案する。
そこで本研究では, rgb画像と3次元モデルレンダリング間の深いクロスドメイン対応を幾何対応場と呼ぶ形で予測する。
これらの対応フィールドはピクセルレベルの勾配として機能し、3Dポーズに直接勾配に基づく最適化を行う。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
関連論文リスト
- Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - Towards Human-Level 3D Relative Pose Estimation: Generalizable, Training-Free, with Single Reference [62.99706119370521]
人間は、単一のクエリ参照イメージペアのみを与えられたラベル/トレーニングなしで、目に見えないオブジェクトの相対的なポーズを容易に推論することができる。
そこで,本研究では,RGB-D参照から2.5D形状のRGB-D参照,オフザシェルフ微分可能なRGB-D参照,DINOv2のような事前学習モデルからのセマンティックキューを用いた3D一般化可能な相対ポーズ推定手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T16:01:10Z) - Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - Bridging 3D Gaussian and Mesh for Freeview Video Rendering [57.21847030980905]
GauMeshはダイナミックシーンのモデリングとレンダリングのために3D GaussianとMeshをブリッジする。
提案手法は, 動的シーンの異なる部分を表現するために, プリミティブの適切なタイプに適応することを示す。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - Learning Naturally Aggregated Appearance for Efficient 3D Editing [94.47518916521065]
カラーフィールドを2次元の鮮明なアグリゲーションに置き換えることを提案する。
歪み効果を回避し、簡便な編集を容易にするため、3Dの点をテクスチャルックアップのために2Dピクセルにマッピングする投影場を標準画像に補完する。
私たちの表現はAGAPと呼ばれ、再最適化を必要とせず、様々な3D編集方法(スタイル化、インタラクティブな描画、コンテンツ抽出など)をうまくサポートしています。
論文 参考訳(メタデータ) (2023-12-11T18:59:31Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Differentiable Rendering for Pose Estimation in Proximity Operations [4.282159812965446]
微分レンダリングは、レンダリングパラメータに関する画像レンダリング関数の微分を計算することを目的としている。
本稿では,6-DoFポーズ推定のための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-24T06:12:16Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。