論文の概要: Category-Level 3D Non-Rigid Registration from Single-View RGB Images
- arxiv url: http://arxiv.org/abs/2008.07203v1
- Date: Mon, 17 Aug 2020 10:35:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 04:20:31.153134
- Title: Category-Level 3D Non-Rigid Registration from Single-View RGB Images
- Title(参考訳): シングルビューRGB画像からのカテゴリレベル3次元非デジタルレジストレーション
- Authors: Diego Rodriguez, Florian Huber, Sven Behnke
- Abstract要約: CNNを用いたRGB画像からの3次元非剛性登録問題の解法を提案する。
我々の目的は、与えられた3次元標準模型を1枚のRGB画像で観察された新しいインスタンスに整合する変形場を見つけることである。
- 参考スコア(独自算出の注目度): 28.874008960264202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel approach to solve the 3D non-rigid
registration problem from RGB images using Convolutional Neural Networks
(CNNs). Our objective is to find a deformation field (typically used for
transferring knowledge between instances, e.g., grasping skills) that warps a
given 3D canonical model into a novel instance observed by a single-view RGB
image. This is done by training a CNN that infers a deformation field for the
visible parts of the canonical model and by employing a learned shape (latent)
space for inferring the deformations of the occluded parts. As result of the
registration, the observed model is reconstructed. Because our method does not
need depth information, it can register objects that are typically hard to
perceive with RGB-D sensors, e.g. with transparent or shiny surfaces. Even
without depth data, our approach outperforms the Coherent Point Drift (CPD)
registration method for the evaluated object categories.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク(cnns)を用いたrgb画像からの3次元非剛性登録問題を解決する新しい手法を提案する。
我々の目的は、与えられた3D標準モデルを1ビューのRGB画像で観察された新しいインスタンスにワープする変形場(典型的には、インスタンス間の知識伝達に使用される)を見つけることである。
これは、標準モデルの可視部分の変形場を推定するcnnを訓練し、オクルードされた部分の変形を推定する学習形状(相対)空間を使用することによって行われる。
登録の結果、観測されたモデルを再構築する。
我々の手法は深度情報を必要としないため、例えば透明または光沢のある表面を持つRGB-Dセンサーで知覚しにくい物体を登録することができる。
深度データがない場合でも、評価対象カテゴリに対するコヒーレントポイントドリフト (CPD) の登録方法よりも優れている。
関連論文リスト
- Towards Human-Level 3D Relative Pose Estimation: Generalizable, Training-Free, with Single Reference [62.99706119370521]
人間は、単一のクエリ参照イメージペアのみを与えられたラベル/トレーニングなしで、目に見えないオブジェクトの相対的なポーズを容易に推論することができる。
そこで,本研究では,RGB-D参照から2.5D形状のRGB-D参照,オフザシェルフ微分可能なRGB-D参照,DINOv2のような事前学習モデルからのセマンティックキューを用いた3D一般化可能な相対ポーズ推定手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T16:01:10Z) - PT43D: A Probabilistic Transformer for Generating 3D Shapes from Single Highly-Ambiguous RGB Images [26.900974153235456]
本稿では,1枚のRGB画像から3次元形状を生成するトランスフォーマーを用いた自己回帰モデルを提案する。
フィールド・オブ・ビュー・トランケーションのような現実的なシナリオを扱うために、シミュレーション画像と形状のトレーニングペアを作成します。
次に、入力画像から最も関連性の高い領域を効果的に識別し、形状生成を行う。
論文 参考訳(メタデータ) (2024-05-20T09:49:13Z) - MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [57.71600854525037]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - Anyview: Generalizable Indoor 3D Object Detection with Variable Frames [63.51422844333147]
我々は,AnyViewという新しい3D検出フレームワークを実用化するために提案する。
本手法は, 単純かつクリーンなアーキテクチャを用いて, 高い一般化性と高い検出精度を実現する。
論文 参考訳(メタデータ) (2023-10-09T02:15:45Z) - Registering Neural Radiance Fields as 3D Density Images [55.64859832225061]
我々は,様々な場面でトレーニングやテストが可能な,普遍的な事前学習型ニューラルネットワークを提案する。
我々は,グローバルアプローチとして,NeRFモデルを効果的に登録できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T09:08:46Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Pose Estimation of Specific Rigid Objects [0.7931904787652707]
本稿では,RGBまたはRGB-D入力画像から剛体物体の6次元ポーズを推定する問題に対処する。
この問題は、ロボット操作、拡張現実、自律運転など、多くの応用分野において非常に重要である。
論文 参考訳(メタデータ) (2021-12-30T14:36:47Z) - Spatially Invariant Unsupervised 3D Object Segmentation with Graph
Neural Networks [23.729853358582506]
本研究では,空間混合モデルとして点雲をモデル化するフレームワークSPAIR3Dを提案する。
変分オートエンコーダ(VAE)を用いて3次元の多目的表現とセグメンテーションを共同で学習する。
実験の結果,SPAIR3Dは外見情報のない可変物体を検出・分割できることがわかった。
論文 参考訳(メタデータ) (2021-06-10T09:20:16Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - Learning Canonical Shape Space for Category-Level 6D Object Pose and
Size Estimation [21.7030393344051]
我々は、ある対象カテゴリの多種多様なインスタンスに対する統一表現である標準形状空間(CASS)を学習する。
RGBD画像から標準空間の3次元点雲を生成するための変分自動エンコーダ(VAE)を訓練する。
VAEはクロスカテゴリな方法でトレーニングされており、公開されている大規模な3D形状リポジトリを活用している。
論文 参考訳(メタデータ) (2020-01-25T14:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。