論文の概要: Towards Confidence-guided Shape Completion for Robotic Applications
- arxiv url: http://arxiv.org/abs/2209.04300v1
- Date: Fri, 9 Sep 2022 13:48:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:35:28.604328
- Title: Towards Confidence-guided Shape Completion for Robotic Applications
- Title(参考訳): ロボット応用のための自信誘導型形状完成に向けて
- Authors: Andrea Rosasco, Stefano Berti, Fabrizio Bottarel, Michele
Colledanchise and Lorenzo Natale
- Abstract要約: 深層学習は、部分的な視覚データから完全な3Dオブジェクト表現を推測する効果的な方法として牽引され始めている。
本稿では,各再構成点に対する信頼度を示す暗黙の3次元表現に基づくオブジェクト形状完備化手法を提案する。
再構成された形状と地上の真実を比較し,ロボットの把握パイプラインに形状完了アルゴリズムを配置することにより,我々のアプローチを実験的に検証する。
- 参考スコア(独自算出の注目度): 6.940242990198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many robotic tasks involving some form of 3D visual perception greatly
benefit from a complete knowledge of the working environment. However, robots
often have to tackle unstructured environments and their onboard visual sensors
can only provide incomplete information due to limited workspaces, clutter or
object self-occlusion. In recent years, deep learning architectures for shape
completion have begun taking traction as effective means of inferring a
complete 3D object representation from partial visual data. Nevertheless, most
of the existing state-of-the-art approaches provide a fixed output resolution
in the form of voxel grids, strictly related to the size of the neural network
output stage. While this is enough for some tasks, e.g. obstacle avoidance in
navigation, grasping and manipulation require finer resolutions and simply
scaling up the neural network outputs is computationally expensive. In this
paper, we address this limitation by proposing an object shape completion
method based on an implicit 3D representation providing a confidence value for
each reconstructed point. As a second contribution, we propose a gradient-based
method for efficiently sampling such implicit function at an arbitrary
resolution, tunable at inference time. We experimentally validate our approach
by comparing reconstructed shapes with ground truths, and by deploying our
shape completion algorithm in a robotic grasping pipeline. In both cases, we
compare results with a state-of-the-art shape completion approach.
- Abstract(参考訳): ある種の3D視覚知覚を含む多くのロボットタスクは、作業環境の完全な知識から大いに恩恵を受ける。
しかし、ロボットは、しばしば非構造環境に取り組む必要があり、搭載された視覚センサーは、限られたワークスペース、クラッタ、オブジェクトの自己隠蔽のために、不完全な情報しか提供できない。
近年, 形状完備化のためのディープラーニングアーキテクチャが, 部分的視覚データから完全な3次元オブジェクト表現を推定する効果的な方法として注目され始めている。
それでも、既存の最先端のアプローチのほとんどは、ニューラルネットワークの出力ステージのサイズに厳密に関連して、ボクセルグリッドの形で一定の出力解像度を提供する。
これはナビゲーションにおける障害物回避、把握と操作といったタスクには十分だが、ニューラルネットワークのアウトプットのスケールアップは計算コストがかかる。
本稿では,再構成点ごとに信頼度を与える暗黙の3次元表現に基づく物体形状補完手法を提案することで,この制約に対処する。
第2の貢献として,このような暗黙関数を任意の解像度で効率的にサンプリングする勾配に基づく手法を提案する。
本手法は,再構成された形状と地盤の真理を比較し,ロボット把持パイプラインに形状完了アルゴリズムを配置することで検証した。
どちらの場合も、結果を最先端の形状補完手法と比較する。
関連論文リスト
- Towards Flexible 3D Perception: Object-Centric Occupancy Completion Augments 3D Object Detection [54.78470057491049]
占領は3Dシーンの知覚に有望な代替手段として現れてきた。
オブジェクトbboxのサプリメントとして,オブジェクト中心の占有率を導入する。
これらの特徴は,最先端の3Dオブジェクト検出器の検出結果を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-12-06T16:12:38Z) - Towards Cross-device and Training-free Robotic Grasping in 3D Open World [20.406334587479623]
本稿では,オープンワールドシナリオにおいて,学習を必要とせずにオブジェクト把握タスクを実行できる新しいパイプラインを提案する。
本稿では,セグメンテーション精度を向上し,未確認オブジェクトをクラスタ化およびローカライズする機能を有する,学習不要なバイナリクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-27T08:23:28Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - PaintNet: Unstructured Multi-Path Learning from 3D Point Clouds for
Robotic Spray Painting [13.182797149468204]
スプレー塗装や溶接といった産業用ロボットの問題は、その課題を解決するために複数の軌道を計画する必要がある。
既存の解は入力曲面の形式と出力経路の性質を強く仮定する。
近年の3次元深層学習の進歩を生かして,任意の3次元表面を扱える新しい枠組みを導入する。
論文 参考訳(メタデータ) (2022-11-13T15:41:50Z) - Uncertainty Guided Policy for Active Robotic 3D Reconstruction using
Neural Radiance Fields [82.21033337949757]
本稿では,物体の暗黙のニューラル表現の各光線に沿ったカラーサンプルの重量分布のエントロピーを計算した線量不確実性推定器を提案する。
提案した推定器を用いた新しい視点から, 基礎となる3次元形状の不確かさを推測することが可能であることを示す。
ニューラルラディアンス場に基づく表現における線量不確実性によって導かれる次ベクター選択ポリシーを提案する。
論文 参考訳(メタデータ) (2022-09-17T21:28:57Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。