論文の概要: Adapting Skills to Novel Grasps: A Self-Supervised Approach
- arxiv url: http://arxiv.org/abs/2408.00178v1
- Date: Wed, 31 Jul 2024 22:18:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 22:16:07.657602
- Title: Adapting Skills to Novel Grasps: A Self-Supervised Approach
- Title(参考訳): 新たなグラスプにスキルを適応する - 自己監督型アプローチ
- Authors: Georgios Papagiannis, Kamil Dreczkowski, Vitalis Vosylius, Edward Johns,
- Abstract要約: 本研究では,1つのつかみポーズに対して定義された把握対象(例えば,ツール)を含む操作軌跡を新しいつかみポーズに適応させる問題について検討する。
この問題に対処するための一般的なアプローチは、可能な各ググルーピングに対して新しい軌跡を定義することであるが、これは非常に非効率である。
本稿では,自己教師付きデータ収集の期間のみを必要としながら,そのようなトラジェクトリを直接適応する手法を提案する。
- 参考スコア(独自算出の注目度): 11.030216531050044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we study the problem of adapting manipulation trajectories involving grasped objects (e.g. tools) defined for a single grasp pose to novel grasp poses. A common approach to address this is to define a new trajectory for each possible grasp explicitly, but this is highly inefficient. Instead, we propose a method to adapt such trajectories directly while only requiring a period of self-supervised data collection, during which a camera observes the robot's end-effector moving with the object rigidly grasped. Importantly, our method requires no prior knowledge of the grasped object (such as a 3D CAD model), it can work with RGB images, depth images, or both, and it requires no camera calibration. Through a series of real-world experiments involving 1360 evaluations, we find that self-supervised RGB data consistently outperforms alternatives that rely on depth images including several state-of-the-art pose estimation methods. Compared to the best-performing baseline, our method results in an average of 28.5% higher success rate when adapting manipulation trajectories to novel grasps on several everyday tasks. Videos of the experiments are available on our webpage at https://www.robot-learning.uk/adapting-skills
- Abstract(参考訳): 本稿では,1つのグリップポーズに対して定義されたグリップオブジェクト(egツール)を含む操作軌跡を新しいグリップポーズに適応させる問題について検討する。
この問題に対処するための一般的なアプローチは、可能な各ググルーピングに対して新しい軌跡を定義することであるが、これは非常に非効率である。
そこで本研究では,カメラがロボットのエンドエフェクターの動きを厳密に把握する様子を観察する手法を提案する。
重要なことに,本手法では把握対象の事前知識(3次元CADモデルなど)は必要とせず,RGB画像や深度画像,あるいはその両方を扱うことができ,カメラキャリブレーションも必要としない。
1360の評価を含む実世界の一連の実験を通して、自己教師付きRGBデータは、いくつかの最先端のポーズ推定方法を含む深度画像に依存する選択肢を一貫して上回っていることがわかった。
その結果, 操作軌跡を日常的な作業に適応させる場合, 平均28.5%の成功率が得られることがわかった。
実験のビデオは、Webページhttps://www.robot-learning.uk/adapting-skillsで公開されている。
関連論文リスト
- SEMPose: A Single End-to-end Network for Multi-object Pose Estimation [13.131534219937533]
SEMPoseは、エンドツーエンドの多目的ポーズ推定ネットワークである。
RGB画像以外の入力を必要とせずに32FPSで推論を行うことができる。
複数のオブジェクトのポーズをリアルタイムで正確に推定でき、対象オブジェクトの数の影響を受けない推論時間に影響を及ぼす。
論文 参考訳(メタデータ) (2024-11-21T10:37:54Z) - Good Grasps Only: A data engine for self-supervised fine-tuning of pose estimation using grasp poses for verification [0.0]
ビンピッキングのためのポーズ推定の自己教師型微調整法を提案する。
本手法により,手動ラベリングを使わずにトレーニングデータを自動的に取得できる。
私たちのパイプラインは、プロセス実行中にシステムを微調整し、学習フェーズの必要性を排除します。
論文 参考訳(メタデータ) (2024-09-17T19:26:21Z) - RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - The Change You Want to See (Now in 3D) [65.61789642291636]
本稿の目的は、同じ3Dシーンの2つの「野生」画像の間で何が変わったかを検出することである。
我々は,全合成データに基づいて学習し,クラスに依存しない変化検出モデルに貢献する。
我々は,人間に注釈を付けた実世界のイメージペアによる評価データセットを新たにリリースした。
論文 参考訳(メタデータ) (2023-08-21T01:59:45Z) - Metric3D: Towards Zero-shot Metric 3D Prediction from A Single Image [85.91935485902708]
ゼロショット単視距離深度モデルの鍵は、大規模データトレーニングと様々なカメラモデルからの距離あいまいさの解消の組合せにあることを示す。
本稿では,あいまいさ問題に明示的に対処し,既存の単分子モデルにシームレスに接続可能な標準カメラ空間変換モジュールを提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-07-20T16:14:23Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Perspective Flow Aggregation for Data-Limited 6D Object Pose Estimation [121.02948087956955]
宇宙や水中の深層などのいくつかのアプリケーションでは、実際の画像を取得することは、注釈のないものであっても、事実上不可能である。
本稿では,合成画像のみに限定してトレーニングできる手法を提案する。
これは、アノテートされた実画像を必要としない場合、トレーニングのためにアノテートされた実画像を必要とするメソッドと同等に動作し、20個の実画像を使用する場合、かなりパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-03-18T10:20:21Z) - GDR-Net: Geometry-Guided Direct Regression Network for Monocular 6D
Object Pose Estimation [71.83992173720311]
単一のRGB画像からの6次元ポーズ推定はコンピュータビジョンの基本課題である。
GDR-Net(Geometry-Guided Direct Regression Network)を用いて6Dポーズをエンドツーエンドで学習する。
提案手法は, LM, LM-O, YCB-Vデータセットの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-02-24T09:11:31Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。