論文の概要: Evaluating Gaussian Grasp Maps for Generative Grasping Models
- arxiv url: http://arxiv.org/abs/2206.00432v1
- Date: Wed, 1 Jun 2022 12:17:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 19:35:16.304591
- Title: Evaluating Gaussian Grasp Maps for Generative Grasping Models
- Title(参考訳): GAモデルのためのガウスグラフマップの評価
- Authors: William Prew, Toby P. Breckon, Magnus Bordewich, and Ulrik Beierholm
- Abstract要約: 従来目に見えない物体にロボットをつかむことは、一般的なロボット操作において重要な課題である。
多くの反足類生成把握モデルを訓練する現在の方法は、二元基底真理把握マップに依存している。
提案手法は, ロボットグルーピングベンチマークにおいて, より高い成功率を達成するための基礎真実学習データを生成するために, 注釈付きグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグルーグリーグルーグルーグルーグルーグルーグルーグルーグルーグルーグ
- 参考スコア(独自算出の注目度): 10.19337252090352
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalising robotic grasping to previously unseen objects is a key task in
general robotic manipulation. The current method for training many antipodal
generative grasping models rely on a binary ground truth grasp map generated
from the centre thirds of correctly labelled grasp rectangles. However, these
binary maps do not accurately reflect the positions in which a robotic arm can
correctly grasp a given object. We propose a continuous Gaussian representation
of annotated grasps to generate ground truth training data which achieves a
higher success rate on a simulated robotic grasping benchmark. Three modern
generative grasping networks are trained with either binary or Gaussian grasp
maps, along with recent advancements from the robotic grasping literature, such
as discretisation of grasp angles into bins and an attentional loss function.
Despite negligible difference according to the standard rectangle metric,
Gaussian maps better reproduce the training data and therefore improve success
rates when tested on the same simulated robot arm by avoiding collisions with
the object: achieving 87.94\% accuracy. Furthermore, the best performing model
is shown to operate with a high success rate when transferred to a real robotic
arm, at high inference speeds, without the need for transfer learning. The
system is then shown to be capable of performing grasps on an antagonistic
physical object dataset benchmark.
- Abstract(参考訳): ロボットによる把持の一般化は、ロボット操作において重要な課題である。
多くの対脚生成的把持モデルの訓練方法は、正しいラベル付き把持矩形の中心3分の1から生成される二元基底真理把持写像に依存する。
しかし、これらのバイナリマップは、ロボットアームが与えられた物体を正確に把握できる位置を正確に反映していない。
本研究では,ロボット把持ベンチマークを用いて,より高い成功率を達成するための基礎真理学習データを生成するために,注釈付き把持の連続ガウス表現を提案する。
現代の3つの生成的把持ネットワークは、二元あるいはガウス的把持マップで訓練され、また、ロボット把持文献からの最近の進歩、例えばビンへの把持角度の離散化や注意損失関数によって訓練されている。
標準矩形距離による不可解な違いにもかかわらず、ガウス地図はトレーニングデータを再現し、物体との衝突を避けて同じシミュレーションロボットアームでテストした場合の成功率を向上させる:87.94\%の精度を達成する。
さらに,移動学習を必要とせず,実際のロボットアームに高速で移動した場合に,最高の動作モデルが高い成功率で動作することが示されている。
システムは、対角的な物理オブジェクトデータセットのベンチマークで把握を行うことができる。
関連論文リスト
- No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - TrajSSL: Trajectory-Enhanced Semi-Supervised 3D Object Detection [59.498894868956306]
Pseudo-labeling approach to semi-supervised learning は教師-学生の枠組みを採用する。
我々は、事前学習した動き予測モデルを活用し、擬似ラベル付きデータに基づいて物体軌跡を生成する。
提案手法は2つの異なる方法で擬似ラベル品質を向上する。
論文 参考訳(メタデータ) (2024-09-17T05:35:00Z) - 3DMOTFormer: Graph Transformer for Online 3D Multi-Object Tracking [15.330384668966806]
最先端の3Dマルチオブジェクト追跡(MOT)アプローチは通常、Kalman Filterのような非学習モデルベースのアルゴリズムに依存している。
本稿では3DMOTFormerを提案する。この3D MOTフレームワークはトランスフォーマーアーキテクチャをベースに構築されている。
提案手法は, nuScenesバリデーションとテストスプリットでそれぞれ71.2%, AMOTA68.2%を達成している。
論文 参考訳(メタデータ) (2023-08-12T19:19:58Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Randomized 3D Scene Generation for Generalizable Self-Supervised
Pre-Training [0.0]
球面高調波を用いた3次元シーン生成手法を提案する。
従来の定式化法をクリアマージンで上回り、実世界のスキャンとCADモデルを用いた手法を用いて、中間結果を得る。
論文 参考訳(メタデータ) (2023-06-07T08:28:38Z) - Towards Precise Model-free Robotic Grasping with Sim-to-Real Transfer
Learning [11.470950882435927]
本稿では,ロボットの把持ネットワークについて述べる。
物理ロボット実験では,1つの既知の物体と,90.91%の成功率を持つ新しい複合形状の家庭用物体を把握した。
提案した把握フレームワークは、既知の物体と未知の物体の両方において、最先端の2つの手法より優れていた。
論文 参考訳(メタデータ) (2023-01-28T16:57:19Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Synergies Between Affordance and Geometry: 6-DoF Grasp Detection via
Implicit Representations [20.155920256334706]
本研究では,3次元再構築と把持学習が密接な関係にあることを示す。
共有表現のマルチタスク学習を通じて,把握能力と3次元再構築のシナジーを活用することを提案する。
本手法は,成功率の把握において,ベースラインを10%以上上回っている。
論文 参考訳(メタデータ) (2021-04-04T05:46:37Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Orientation Attentive Robotic Grasp Synthesis with Augmented Grasp Map
Representation [62.79160608266713]
物体の形態学的特徴は、ロボットの把握の視覚的学習を阻害する、幅広い可視的把握方向を提供する可能性がある。
既存のグリップ生成アプローチを呪い、グリップポイント毎に大きく異なる向きのアノテーションを集約することにより、不連続グリップマップを構築する。
そこで本研究では,角度空間を複数のビンに分割することで,方向を局所的に歪曲する,画素ワイズ合成に適した拡張型グリップマップ表現を提案する。
論文 参考訳(メタデータ) (2020-06-09T08:54:54Z) - Robotic Grasp Manipulation Using Evolutionary Computing and Deep
Reinforcement Learning [0.0]
人間は、何年にもわたって学習しているので、物体をつかむために操作する方法をすぐに知っています。
本稿では,課題を位置学習と向き学習の両方に分解することで,学習に基づくポーズ推定を開発することの課題を取り上げている。
提案したアーキテクチャとアルゴリズムに基づいて、ロボットは通常の形状の剛体物体をすべて把握することができる。
論文 参考訳(メタデータ) (2020-01-15T17:23:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。