論文の概要: Category-level Shape Estimation for Densely Cluttered Objects
- arxiv url: http://arxiv.org/abs/2302.11983v1
- Date: Thu, 23 Feb 2023 13:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 15:16:42.153263
- Title: Category-level Shape Estimation for Densely Cluttered Objects
- Title(参考訳): きめ細かい物体のカテゴリーレベルの形状推定
- Authors: Zhenyu Wu, Ziwei Wang, Jiwen Lu and Haibin Yan
- Abstract要約: そこで本研究では,密に散らばった物体のカテゴリレベルの形状推定手法を提案する。
我々のフレームワークは、多視点視覚情報融合によって、各オブジェクトをクラッタに分割する。
シミュレーション環境と実世界の実験から,本手法が高精度な形状推定を実現することが示された。
- 参考スコア(独自算出の注目度): 94.64287790278887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately estimating the shape of objects in dense clutters makes important
contribution to robotic packing, because the optimal object arrangement
requires the robot planner to acquire shape information of all existed objects.
However, the objects for packing are usually piled in dense clutters with
severe occlusion, and the object shape varies significantly across different
instances for the same category. They respectively cause large object
segmentation errors and inaccurate shape recovery on unseen instances, which
both degrade the performance of shape estimation during deployment. In this
paper, we propose a category-level shape estimation method for densely
cluttered objects. Our framework partitions each object in the clutter via the
multi-view visual information fusion to achieve high segmentation accuracy, and
the instance shape is recovered by deforming the category templates with
diverse geometric transformations to obtain strengthened generalization
ability. Specifically, we first collect the multi-view RGB-D images of the
object clutters for point cloud reconstruction. Then we fuse the feature maps
representing the visual information of multi-view RGB images and the pixel
affinity learned from the clutter point cloud, where the acquired instance
segmentation masks of multi-view RGB images are projected to partition the
clutter point cloud. Finally, the instance geometry information is obtained
from the partially observed instance point cloud and the corresponding category
template, and the deformation parameters regarding the template are predicted
for shape estimation. Experiments in the simulated environment and real world
show that our method achieves high shape estimation accuracy for densely
cluttered everyday objects with various shapes.
- Abstract(参考訳): 密集したクラッタ内の物体の形状を正確に推定することは、ロボットのパッキングに重要な役割を果たす。
しかし、充填物は通常、激しい閉塞を伴う密集したクラッタに積み重ねられ、同じカテゴリーの異なる事例で物体の形が著しく変化する。
これらはそれぞれ、大きなオブジェクトのセグメンテーションエラーと不正確なシェープリカバリを引き起こし、デプロイメント中のシェイプ推定のパフォーマンスを低下させる。
本稿では,密集した物体に対するカテゴリレベルの形状推定手法を提案する。
本フレームワークは,多視点視覚情報融合により各オブジェクトを分割して高いセグメンテーション精度を達成し,様々な幾何学的変換でカテゴリテンプレートを変形してインスタンス形状を復元し,拡張された一般化能力を得る。
具体的には,まず,オブジェクトクラッタの多視点rgb-d画像を収集し,ポイントクラウド再構成を行う。
次に、多視点RGB画像の視覚情報を表す特徴マップと、取得した多視点RGB画像のインスタンスセグメンテーションマスクを投影して、クラッタ点クラウドを分割するクラッタ点クラウドから学習した画素親和性とを融合する。
最後に、部分的に観察されたインスタンスポイントクラウドと対応するカテゴリテンプレートからインスタンス形状情報を取得し、テンプレートに関する変形パラメータを予測して形状推定を行う。
シミュレーション環境と実世界における実験により,様々な形状の密集した日常物体の形状推定精度が向上した。
関連論文リスト
- KP-RED: Exploiting Semantic Keypoints for Joint 3D Shape Retrieval and Deformation [87.23575166061413]
KP-RED は KeyPoint 主導の Retrieval and deformation フレームワークである。
オブジェクトスキャンを入力として、最も幾何学的に類似したCADモデルを共同で検索し、変形させる。
論文 参考訳(メタデータ) (2024-03-15T08:44:56Z) - Generative Category-Level Shape and Pose Estimation with Semantic
Primitives [27.692997522812615]
本稿では,1枚のRGB-D画像からカテゴリレベルのオブジェクト形状とポーズ推定を行う新しいフレームワークを提案する。
カテゴリ内変動に対処するために、様々な形状を統一された潜在空間にエンコードするセマンティックプリミティブ表現を採用する。
提案手法は,実世界のデータセットにおいて,SOTAのポーズ推定性能とより優れた一般化を実現する。
論文 参考訳(メタデータ) (2022-10-03T17:51:54Z) - Learning to Complete Object Shapes for Object-level Mapping in Dynamic
Scenes [30.500198859451434]
本研究では,動的シーンにおけるオブジェクトの分割,追跡,再構築を同時に行うオブジェクトレベルのマッピングシステムを提案する。
さらに、深度入力とカテゴリレベルの前の形状からの再構成を条件にすることで、完全なジオメトリを予測し、完成させることができる。
実世界の合成シーケンスと実世界のシーケンスの両方で定量的に定性的にテストすることで,その有効性を評価する。
論文 参考訳(メタデータ) (2022-08-09T22:56:33Z) - ELLIPSDF: Joint Object Pose and Shape Optimization with a Bi-level
Ellipsoid and Signed Distance Function Description [9.734266860544663]
本稿では,関節オブジェクトのポーズと形状最適化のための表現的かつコンパクトなモデルを提案する。
多視点RGB-Dカメラ観測からオブジェクトレベルのマップを推論する。
提案手法は,大規模実世界のScanNetデータセットを用いて評価し,最先端の手法と比較する。
論文 参考訳(メタデータ) (2021-08-01T03:07:31Z) - Localization and Mapping using Instance-specific Mesh Models [12.235379548921061]
本論文では,モノラルカメラを用いて,物体のポーズや形状を含むセマンティックマップの構築に焦点を当てる。
私たちの貢献は,カメラ画像から抽出した意味情報に基づいてオンラインに最適化可能な,オブジェクト形状のインスタンス固有メッシュモデルである。
論文 参考訳(メタデータ) (2021-03-08T00:24:23Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z) - Continuous Surface Embeddings [76.86259029442624]
我々は、変形可能な対象カテゴリーにおける密接な対応を学習し、表現するタスクに焦点をあてる。
本稿では,高密度対応の新たな学習可能な画像ベース表現を提案する。
提案手法は,人間の身近なポーズ推定のための最先端手法と同等以上の性能を示すことを示す。
論文 参考訳(メタデータ) (2020-11-24T22:52:15Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。