論文の概要: Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications
- arxiv url: http://arxiv.org/abs/2102.08096v1
- Date: Tue, 16 Feb 2021 11:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 14:54:11.024804
- Title: Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications
- Title(参考訳): 産業用ロボットアプリケーションのための最適ディスクリプタを用いたディセンスオブジェクトネットの教師付きトレーニング
- Authors: Andras Kupcsik, Markus Spies, Alexander Klein, Marco Todescato,
Nicolai Waniek, Philipp Schillinger, Mathias Buerger
- Abstract要約: Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
- 参考スコア(独自算出の注目度): 57.87136703404356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense Object Nets (DONs) by Florence, Manuelli and Tedrake (2018) introduced
dense object descriptors as a novel visual object representation for the
robotics community. It is suitable for many applications including object
grasping, policy learning, etc. DONs map an RGB image depicting an object into
a descriptor space image, which implicitly encodes key features of an object
invariant to the relative camera pose. Impressively, the self-supervised
training of DONs can be applied to arbitrary objects and can be evaluated and
deployed within hours. However, the training approach relies on accurate depth
images and faces challenges with small, reflective objects, typical for
industrial settings, when using consumer grade depth cameras. In this paper we
show that given a 3D model of an object, we can generate its descriptor space
image, which allows for supervised training of DONs. We rely on Laplacian
Eigenmaps (LE) to embed the 3D model of an object into an optimally generated
space. While our approach uses more domain knowledge, it can be efficiently
applied even for smaller and reflective objects, as it does not rely on depth
information. We compare the training methods on generating 6D grasps for
industrial objects and show that our novel supervised training approach
improves the pick-and-place performance in industry-relevant tasks.
- Abstract(参考訳): Dense Object Nets (DONs) by Florence, Manuelli and Tedrake (2018) は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として、密度の高いオブジェクト記述子を導入した。
オブジェクトの把握やポリシー学習など、多くのアプリケーションに適しています。
DONは、オブジェクトを描写するRGBイメージを記述空間イメージにマッピングし、相対的なカメラポーズに不変のオブジェクトの主要機能を暗黙的にエンコードする。
印象的なことに、ドンの自己教師付きトレーニングは任意のオブジェクトに適用でき、数時間で評価およびデプロイできる。
しかし、トレーニングアプローチは正確な深度画像に依存しており、消費者グレードの深度カメラを使用する場合、産業設定に典型的な小さな反射オブジェクトで課題に直面しています。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
私たちはLaplacian Eigenmaps (LE) に頼って、オブジェクトの3Dモデルを最適な生成空間に埋め込んでいます。
私たちのアプローチはより多くのドメイン知識を使用しますが、深さ情報に依存しないため、小さくて反射的なオブジェクトでも効率的に適用できます。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
関連論文リスト
- LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Rapid Pose Label Generation through Sparse Representation of Unknown
Objects [7.32172860877574]
本研究は、未知のオブジェクトに対する実世界のポーズアノテートされたRGB-Dデータを高速に生成するためのアプローチを提案する。
我々はまず、RGB-Dビデオのセット上で任意に選択されたキーポイントの順序付きセットの最小限のラベルを出力する。
最適化問題を解くことにより、これらのラベルをワールドフレームの下に組み合わせ、スパースでキーポイントに基づくオブジェクトの表現を復元する。
論文 参考訳(メタデータ) (2020-11-07T15:14:03Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。