論文の概要: 3D Textured Shape Recovery with Learned Geometric Priors
- arxiv url: http://arxiv.org/abs/2209.03254v1
- Date: Wed, 7 Sep 2022 16:03:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:42:29.673481
- Title: 3D Textured Shape Recovery with Learned Geometric Priors
- Title(参考訳): 幾何学的事前学習による3次元テクスチャ形状復元
- Authors: Lei Li, Zhizheng Liu, Weining Ren, Liudi Yang, Fangjinhua Wang, Marc
Pollefeys, Songyou Peng
- Abstract要約: 本技術報告では,学習した幾何学的先入観を取り入れて,限界に対処するアプローチを提案する。
我々は、学習したポーズ予測からSMPLモデルを生成し、それを部分的な入力に融合させ、人体の事前知識を追加する。
また、異なるレベルのスケールを扱うために、新しい完全性を考慮したバウンディングボックス適応を提案する。
- 参考スコア(独自算出の注目度): 58.27543892680264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D textured shape recovery from partial scans is crucial for many real-world
applications. Existing approaches have demonstrated the efficacy of implicit
function representation, but they suffer from partial inputs with severe
occlusions and varying object types, which greatly hinders their application
value in the real world. This technical report presents our approach to address
these limitations by incorporating learned geometric priors. To this end, we
generate a SMPL model from learned pose prediction and fuse it into the partial
input to add prior knowledge of human bodies. We also propose a novel
completeness-aware bounding box adaptation for handling different levels of
scales and partialness of partial scans.
- Abstract(参考訳): 部分スキャンによる3次元テクスチャ形状復元は,多くの実世界のアプリケーションにおいて不可欠である。
既存のアプローチでは暗黙的な関数表現の有効性が実証されているが、激しい閉塞を伴う部分的な入力や、さまざまなオブジェクトタイプに苦しめられている。
本技術報告では,これらの制約に,学習された幾何学的前提を取り入れたアプローチを提案する。
この目的のために、学習したポーズ予測からSMPLモデルを生成し、それを部分的な入力に融合して人体の事前知識を追加する。
また,異なるレベルのスケールと部分スキャンの部分性を扱うための,新しい完全性認識境界ボックス適応を提案する。
関連論文リスト
- 3D Shape Completion on Unseen Categories:A Weakly-supervised Approach [61.76304400106871]
未確認のカテゴリから完全な形状を再構築するための、新しい弱教師付きフレームワークを導入する。
まず,各カテゴリから得られたデータを利用して粗い形状を推定する,エンドツーエンドの事前支援型形状学習ネットワークを提案する。
さらに, 粗い形状をさらに洗練させるために, 自己教師型形状改善モデルを提案する。
論文 参考訳(メタデータ) (2024-01-19T09:41:09Z) - Engineering the Neural Collapse Geometry of Supervised-Contrastive Loss [28.529476019629097]
Supervised-Contrastive Los (SCL) は、分類タスクのためのクロスエントロピー(CE)の代替品である。
コントラスト損失を補正することにより,学習した特徴埋め込みの幾何学を設計する手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T04:23:17Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - A Fusion of Variational Distribution Priors and Saliency Map Replay for
Continual 3D Reconstruction [1.3812010983144802]
単一画像からの3次元物体形状の予測に焦点をあてた研究課題である。
このタスクは、形状の可視部分と隠蔽部分の両方を予測するために、重要なデータ取得を必要とする。
本稿では,従来のクラスを新しいクラスで学習した後でも合理的に再構築できる変分優先を用いたモデルの設計を目標とする,連続的な学習に基づく3D再構成手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T06:48:55Z) - Occlusion Robust 3D Human Pose Estimation with StridedPoseGraphFormer
and Data Augmentation [69.49430149980789]
提案手法は最先端技術(SoA)と良好に比較できることを示す。
また, 閉塞処理機構が存在しない場合には, SoA 3D HPE法の性能が著しく低下することが明らかとなった。
論文 参考訳(メタデータ) (2023-04-24T13:05:13Z) - Towards Confidence-guided Shape Completion for Robotic Applications [6.940242990198]
深層学習は、部分的な視覚データから完全な3Dオブジェクト表現を推測する効果的な方法として牽引され始めている。
本稿では,各再構成点に対する信頼度を示す暗黙の3次元表現に基づくオブジェクト形状完備化手法を提案する。
再構成された形状と地上の真実を比較し,ロボットの把握パイプラインに形状完了アルゴリズムを配置することにより,我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2022-09-09T13:48:24Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。