論文の概要: SCARP: 3D Shape Completion in ARbitrary Poses for Improved Grasping
- arxiv url: http://arxiv.org/abs/2301.07213v1
- Date: Tue, 17 Jan 2023 22:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 17:22:45.384788
- Title: SCARP: 3D Shape Completion in ARbitrary Poses for Improved Grasping
- Title(参考訳): SCARP:Arbitrary Posesにおける3次元形状補完によるグラッピングの改善
- Authors: Bipasha Sen, Aditya Agarwal, Gaurav Singh, Brojeshwar B., Srinath
Sridhar, Madhava Krishna
- Abstract要約: 本稿では,Arbitrary Posesで形状補完を行うモデルであるSCARPを提案する。
テーブルトップオブジェクトの把握提案を改善するためにSCARPを使用します。
- 参考スコア(独自算出の注目度): 6.587607709173606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recovering full 3D shapes from partial observations is a challenging task
that has been extensively addressed in the computer vision community. Many deep
learning methods tackle this problem by training 3D shape generation networks
to learn a prior over the full 3D shapes. In this training regime, the methods
expect the inputs to be in a fixed canonical form, without which they fail to
learn a valid prior over the 3D shapes. We propose SCARP, a model that performs
Shape Completion in ARbitrary Poses. Given a partial pointcloud of an object,
SCARP learns a disentangled feature representation of pose and shape by relying
on rotationally equivariant pose features and geometric shape features trained
using a multi-tasking objective. Unlike existing methods that depend on an
external canonicalization, SCARP performs canonicalization, pose estimation,
and shape completion in a single network, improving the performance by 45% over
the existing baselines. In this work, we use SCARP for improving grasp
proposals on tabletop objects. By completing partial tabletop objects directly
in their observed poses, SCARP enables a SOTA grasp proposal network improve
their proposals by 71.2% on partial shapes. Project page:
https://bipashasen.github.io/scarp
- Abstract(参考訳): 部分的な観察から完全な3d形状を回復することは、コンピュータビジョンコミュニティで広く取り組まれている課題である。
多くのディープラーニング手法は、3D形状生成ネットワークをトレーニングし、完全な3D形状について事前学習することでこの問題に対処する。
このトレーニングシステムでは、入力が固定された正準形式であると予測され、3次元形状に対して有効な事前学習を行なわなかった。
本稿では,Arbitrary Posesで形状補完を行うモデルであるSCARPを提案する。
オブジェクトの部分的な点クラウドが与えられたとき、SCARPは、回転同変ポーズ特徴と、マルチタスク目的を用いて訓練された幾何学的形状特徴に頼って、ポーズと形状の歪んだ特徴表現を学習する。
外部の正準化に依存する既存の手法とは異なり、SCARPは単一のネットワークで正準化、ポーズ推定、形状補完を行い、既存のベースラインよりも45%性能が向上する。
本研究では,表上オブジェクトに対する把持提案の改善にscarpを用いる。
観測されたポーズで部分テーブルトップオブジェクトを直接完了させることで、scarpは部分的な形状でsatagrave提案ネットワークを71.2%改善することができる。
プロジェクトページ: https://bipashasen.github.io/scarp
関連論文リスト
- 3DSGrasp: 3D Shape-Completion for Robotic Grasp [81.1638620745356]
オブジェクトの完全な3Dポイントクラウドデータ(PCD)が利用可能であれば、現実のロボットの把握は堅牢に行うことができる。
実際に、PCDは、握る動作の前に、オブジェクトがほとんど見ていない、そしてまばらな視点から見られているとき、しばしば不完全である。
そこで我々は3DSGraspという新しい把握戦略を提案する。これは部分的なPCDから欠落した幾何を予測し、信頼性の高い把握ポーズを生成する。
論文 参考訳(メタデータ) (2023-01-02T20:23:05Z) - Cut-and-Approximate: 3D Shape Reconstruction from Planar Cross-sections
with Deep Reinforcement Learning [0.0]
我々は,この課題を解決するための最初の3次元形状再構成ネットワークについて,その知識を最大限に活用する。
本手法は,強化学習アルゴリズムを適用し,その形状を効果的に解析する方法を学習する。
論文 参考訳(メタデータ) (2022-10-22T17:48:12Z) - AutoSDF: Shape Priors for 3D Completion, Reconstruction and Generation [29.018733252938926]
パワフルな事前処理によって、不十分な情報で推論を実行できます。
本稿では, 形状完了, 復元, 生成といったマルチモーダルな3次元課題を解決するために, 3次元形状に対する自己回帰前処理を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:59:54Z) - ConDor: Self-Supervised Canonicalization of 3D Pose for Partial Shapes [55.689763519293464]
ConDorは、完全および部分的な3次元点雲の3次元配向と位置を正準化することを学ぶ自己教師型手法である。
推測中,本手法は任意のポーズで完全あるいは部分的な3次元点の雲を抽出し,同変正則のポーズを出力する。
論文 参考訳(メタデータ) (2022-01-19T18:57:21Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - PatchNets: Patch-Based Generalizable Deep Implicit 3D Shape
Representations [75.42959184226702]
物体認識訓練のための中級パッチベースサーフェス表現を提案する。
形状や部分点雲の完全化など,新しい表現の応用例をいくつか紹介する。
論文 参考訳(メタデータ) (2020-08-04T15:34:46Z) - 3D Reconstruction of Novel Object Shapes from Single Images [23.016517962380323]
提案するSDFNetは,目に見える形状と見えない形状の最先端性能を実現する。
本研究は, 画像形状再構成の大規模評価を行った最初の試みである。
論文 参考訳(メタデータ) (2020-06-14T00:34:26Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。