論文の概要: Single-View Shape Completion for Robotic Grasping in Clutter
- arxiv url: http://arxiv.org/abs/2512.16449v1
- Date: Thu, 18 Dec 2025 12:11:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.406335
- Title: Single-View Shape Completion for Robotic Grasping in Clutter
- Title(参考訳): クラッタ内のロボットグラスピングのための単視点形状補完
- Authors: Abhishek Kashyap, Yuxuan Yang, Henrik Andreasson, Todor Stoyanov,
- Abstract要約: 視覚に基づくロボット操作では、単一のカメラビューは、関心のある対象の片側のみをキャプチャできる。
拡散モデルを用いて,部分深度観測からカテゴリレベルの3次元形状の完成を行う。
提案手法は, 形状の完成度を23%向上させることなく, 良好な達成率が得られる。
- 参考スコア(独自算出の注目度): 5.084516012213421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In vision-based robot manipulation, a single camera view can only capture one side of objects of interest, with additional occlusions in cluttered scenes further restricting visibility. As a result, the observed geometry is incomplete, and grasp estimation algorithms perform suboptimally. To address this limitation, we leverage diffusion models to perform category-level 3D shape completion from partial depth observations obtained from a single view, reconstructing complete object geometries to provide richer context for grasp planning. Our method focuses on common household items with diverse geometries, generating full 3D shapes that serve as input to downstream grasp inference networks. Unlike prior work, which primarily considers isolated objects or minimal clutter, we evaluate shape completion and grasping in realistic clutter scenarios with household objects. In preliminary evaluations on a cluttered scene, our approach consistently results in better grasp success rates than a naive baseline without shape completion by 23% and over a recent state of the art shape completion approach by 19%. Our code is available at https://amm.aass.oru.se/shape-completion-grasping/.
- Abstract(参考訳): 視覚に基づくロボット操作では、単一のカメラビューは関心のある対象の片側のみをキャプチャすることができ、さらに視界を制限している。
その結果、観測された幾何は不完全であり、把握推定アルゴリズムは準最適に実行する。
この制限に対処するために,我々は拡散モデルを活用して,一視点から得られた部分深度観測からカテゴリレベルの3次元形状を完遂し,完全なオブジェクトジオメトリを再構成し,より豊かなコンテキストで計画の把握を行う。
提案手法は, 多様なジオメトリを持つ一般的な家庭用品に着目し, 下流の把握推論ネットワークへの入力として機能する完全な3次元形状を生成する。
孤立したオブジェクトや最小のクラッタを主眼とする先行研究とは異なり、我々は家庭用オブジェクトを用いた現実的なクラッタシナリオにおいて、形状の完成と把握を評価する。
乱れ場面における予備評価では, 形状完成率を23%, 最新の形状完成率を19%向上させることなく, 従来型ベースラインよりも良好な把握率を得ることができた。
私たちのコードはhttps://amm.aass.oru.se/shape-completion-grasping/で利用可能です。
関連論文リスト
- Local Occupancy-Enhanced Object Grasping with Multiple Triplanar Projection [24.00828999360765]
本稿では,一般的な物体をロボットでつかむという課題に対処する。
提案したモデルはまず、シーン内で最も可能性の高いいくつかの把握ポイントを提案する。
各グリップポイントの周囲に、モジュールはその近傍にある任意のボクセルが空か、ある物体に占有されているかを推測するように設計されている。
モデルはさらに、局所占有力向上した物体形状情報を利用して、6-DoFグリップポーズを推定する。
論文 参考訳(メタデータ) (2024-07-22T16:22:28Z) - Unsupervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
MAL-UPCは、領域レベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークである。
我々のMAL-UPCは3Dの完全な監視を一切必要とせず、トレーニングセットにおける一視点部分的な観察のみを必要とする。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - Towards Confidence-guided Shape Completion for Robotic Applications [6.940242990198]
深層学習は、部分的な視覚データから完全な3Dオブジェクト表現を推測する効果的な方法として牽引され始めている。
本稿では,各再構成点に対する信頼度を示す暗黙の3次元表現に基づくオブジェクト形状完備化手法を提案する。
再構成された形状と地上の真実を比較し,ロボットの把握パイプラインに形状完了アルゴリズムを配置することにより,我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2022-09-09T13:48:24Z) - A Divide et Impera Approach for 3D Shape Reconstruction from Multiple
Views [49.03830902235915]
物体の3次元形状を1つまたは複数の画像から推定することは、最近のディープラーニングによるブレークスルーによって人気を集めている。
本稿では,与えられた視点からの可視情報を統合することで,視点変化の再構築に頼ることを提案する。
提案手法を検証するために,相対的なポーズ推定と3次元形状再構成の観点から,ShapeNet参照ベンチマークの総合評価を行った。
論文 参考訳(メタデータ) (2020-11-17T09:59:32Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。