論文の概要: U-RED: Unsupervised 3D Shape Retrieval and Deformation for Partial Point
Clouds
- arxiv url: http://arxiv.org/abs/2308.06383v1
- Date: Fri, 11 Aug 2023 20:56:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 17:42:58.769401
- Title: U-RED: Unsupervised 3D Shape Retrieval and Deformation for Partial Point
Clouds
- Title(参考訳): U-RED:部分点雲の教師なし3次元形状検索と変形
- Authors: Yan Di, Chenyangguang Zhang, Ruida Zhang, Fabian Manhardt, Yongzhi Su,
Jason Rambach, Didier Stricker, Xiangyang Ji and Federico Tombari
- Abstract要約: 教師なし形状検索および変形パイプラインであるU-REDを提案する。
任意のオブジェクトの観察を入力として受け取り、通常RGBの画像やスキャンによってキャプチャされ、幾何学的に類似したCADモデルを共同で検索して変形する。
我々は,U-REDが既存の最先端アプローチを47.3%,16.7%,31.6%で上回っていることを示す。
- 参考スコア(独自算出の注目度): 84.32525852378525
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we propose U-RED, an Unsupervised shape REtrieval and
Deformation pipeline that takes an arbitrary object observation as input,
typically captured by RGB images or scans, and jointly retrieves and deforms
the geometrically similar CAD models from a pre-established database to tightly
match the target. Considering existing methods typically fail to handle noisy
partial observations, U-RED is designed to address this issue from two aspects.
First, since one partial shape may correspond to multiple potential full
shapes, the retrieval method must allow such an ambiguous one-to-many
relationship. Thereby U-RED learns to project all possible full shapes of a
partial target onto the surface of a unit sphere. Then during inference, each
sampling on the sphere will yield a feasible retrieval. Second, since
real-world partial observations usually contain noticeable noise, a reliable
learned metric that measures the similarity between shapes is necessary for
stable retrieval. In U-RED, we design a novel point-wise residual-guided metric
that allows noise-robust comparison. Extensive experiments on the synthetic
datasets PartNet, ComplementMe and the real-world dataset Scan2CAD demonstrate
that U-RED surpasses existing state-of-the-art approaches by 47.3%, 16.7% and
31.6% respectively under Chamfer Distance.
- Abstract(参考訳): 本稿では,任意の物体を入力として入力し,通常rgb画像やスキャンでキャプチャし,予め確立したデータベースから幾何学的に類似したcadモデルを共同検索して変形する非教師あり形状検索・変形パイプラインであるu-redを提案する。
既存の手法ではノイズの多い部分観測を処理できないため、u-redは2つの側面からこの問題に対処するように設計されている。
第一に、ある部分形状が複数のポテンシャルフル形状に対応する可能性があるため、検索方法はそのような曖昧な一対一の関係を許容する必要がある。
これによりU-REDは、部分的対象の可能なすべての完全な形状を単位球面に投影することを学ぶ。
そして、推論の間、球面上の各サンプリングは、実行可能な検索をもたらす。
第二に, 実世界の部分的観測には目に見えるノイズが伴うため, 形状の類似性を測定するための信頼性の高い学習指標が必要である。
U-REDでは、ノイズ・ロバスト比較が可能な新しいポイントワイド残差誘導計量を設計する。
合成データセット partnet, complementme, real-world dataset scan2cad に関する広範な実験により、u-red は既存の最先端のアプローチを 47.3%, 16.7%, 31.6% のチャンファー距離でそれぞれ上回っていることが示されている。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - Towards Human-Level 3D Relative Pose Estimation: Generalizable, Training-Free, with Single Reference [62.99706119370521]
人間は、単一のクエリ参照イメージペアのみを与えられたラベル/トレーニングなしで、目に見えないオブジェクトの相対的なポーズを容易に推論することができる。
そこで,本研究では,RGB-D参照から2.5D形状のRGB-D参照,オフザシェルフ微分可能なRGB-D参照,DINOv2のような事前学習モデルからのセマンティックキューを用いた3D一般化可能な相対ポーズ推定手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T16:01:10Z) - KP-RED: Exploiting Semantic Keypoints for Joint 3D Shape Retrieval and Deformation [87.23575166061413]
KP-RED は KeyPoint 主導の Retrieval and deformation フレームワークである。
オブジェクトスキャンを入力として、最も幾何学的に類似したCADモデルを共同で検索し、変形させる。
論文 参考訳(メタデータ) (2024-03-15T08:44:56Z) - Deformation-Guided Unsupervised Non-Rigid Shape Matching [7.327850781641328]
非厳密な形状マッチングのための教師なしデータ駆動方式を提案する。
本手法は,3次元スキャナを用いたディジタル形状のマッチングにおいて特に堅牢である。
論文 参考訳(メタデータ) (2023-11-27T09:55:55Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - Monocular 3D Detection with Geometric Constraints Embedding and
Semi-supervised Training [3.8073142980733]
我々は,KM3D-Netと呼ばれる,RGB画像のみを用いたモノクル3Dオブジェクト検出のための新しいフレームワークを提案する。
我々は、対象のキーポイント、次元、方向を予測するための完全な畳み込みモデルを設計し、これらの推定を視点幾何学的制約と組み合わせて位置属性を計算する。
論文 参考訳(メタデータ) (2020-09-02T00:51:51Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。