論文の概要: Generalizing Single-View 3D Shape Retrieval to Occlusions and Unseen
Objects
- arxiv url: http://arxiv.org/abs/2401.00405v1
- Date: Sun, 31 Dec 2023 05:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 17:28:30.368565
- Title: Generalizing Single-View 3D Shape Retrieval to Occlusions and Unseen
Objects
- Title(参考訳): 咬合と見えない物体への単一視点3次元形状検索の一般化
- Authors: Qirui Wu, Daniel Ritchie, Manolis Savva, Angel X. Chang
- Abstract要約: シングルビュー3D形状検索は、利用可能な3Dデータの増大に伴ってますます重要になる課題である。
我々は,3つの異なる軸に沿って一視点の3次元形状検索を体系的に評価し,物体の閉塞や切り離しの存在,見えない3次元形状データへの一般化,入力画像における見えない物体への一般化について検討した。
- 参考スコア(独自算出の注目度): 32.32128461720876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-view 3D shape retrieval is a challenging task that is increasingly
important with the growth of available 3D data. Prior work that has studied
this task has not focused on evaluating how realistic occlusions impact
performance, and how shape retrieval methods generalize to scenarios where
either the target 3D shape database contains unseen shapes, or the input image
contains unseen objects. In this paper, we systematically evaluate single-view
3D shape retrieval along three different axes: the presence of object
occlusions and truncations, generalization to unseen 3D shape data, and
generalization to unseen objects in the input images. We standardize two
existing datasets of real images and propose a dataset generation pipeline to
produce a synthetic dataset of scenes with multiple objects exhibiting
realistic occlusions. Our experiments show that training on occlusion-free data
as was commonly done in prior work leads to significant performance degradation
for inputs with occlusion. We find that that by first pretraining on our
synthetic dataset with occlusions and then finetuning on real data, we can
significantly outperform models from prior work and demonstrate robustness to
both unseen 3D shapes and unseen objects.
- Abstract(参考訳): シングルビュー3D形状検索は、利用可能な3Dデータの増大に伴ってますます重要になる課題である。
これまでの研究では、現実的なオクルージョンがパフォーマンスに与える影響や、対象の3d形状データベースが見当たらない形状を含むシナリオや、入力画像が見当たらないオブジェクトを含むシナリオに、形状検索手法がどのように一般化するかを評価していない。
本稿では,3つの異なる軸に沿った一視点3次元形状検索を体系的に評価する。物体の閉塞や切り離しの存在,見えない3次元形状データへの一般化,入力画像における見えない物体への一般化である。
実画像の既存の2つのデータセットを標準化し、現実的なオクルージョンを示す複数のオブジェクトからなるシーンの合成データセットを生成するデータセット生成パイプラインを提案する。
実験の結果,従来のオクルージョンフリーデータのトレーニングは,オクルージョンを伴う入力に対して,大幅な性能低下をもたらすことがわかった。
人工データセットをオクルージョンで事前訓練し、実際のデータを微調整することで、以前の作業からモデルを大幅に上回り、目に見えない3D形状と見えない物体の両方に対して堅牢性を示すことができることがわかった。
関連論文リスト
- Towards Flexible 3D Perception: Object-Centric Occupancy Completion Augments 3D Object Detection [54.78470057491049]
占領は3Dシーンの知覚に有望な代替手段として現れてきた。
オブジェクトbboxのサプリメントとして,オブジェクト中心の占有率を導入する。
これらの特徴は,最先端の3Dオブジェクト検出器の検出結果を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-12-06T16:12:38Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - A Fusion of Variational Distribution Priors and Saliency Map Replay for Continual 3D Reconstruction [1.2289361708127877]
単一画像からの3次元物体形状の予測に焦点をあてた研究課題である。
このタスクは、形状の可視部分と隠蔽部分の両方を予測するために、重要なデータ取得を必要とする。
本稿では,従来のクラスを新しいクラスで学習した後でも合理的に再構築できる変分優先を用いたモデルの設計を目標とする,連続的な学習に基づく3D再構成手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T06:48:55Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - LASOR: Learning Accurate 3D Human Pose and Shape Via Synthetic
Occlusion-Aware Data and Neural Mesh Rendering [3.007707487678111]
シルエットと2Dキーポイントデータを合成し,SMPLのポーズと形状パラメータに直接回帰するフレームワークを提案する。
ニューラル3Dメッシュを利用して、シルエットの監督をオンザフライで行えるようにすることで、形状推定の大幅な改善に寄与する。
我々は3DPWデータセットのポーズ精度では最先端であり、形状精度ではランク1法より明らかに優れている。
論文 参考訳(メタデータ) (2021-08-01T02:09:16Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。