論文の概要: Good Grasps Only: A data engine for self-supervised fine-tuning of pose estimation using grasp poses for verification
- arxiv url: http://arxiv.org/abs/2409.11512v1
- Date: Tue, 17 Sep 2024 19:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:59:44.530545
- Title: Good Grasps Only: A data engine for self-supervised fine-tuning of pose estimation using grasp poses for verification
- Title(参考訳): グッドグラスプのみ:検証のためのグリップポーズを用いたポーズ推定の自己教師型微調整のためのデータエンジン
- Authors: Frederik Hagelskjær,
- Abstract要約: ビンピッキングのためのポーズ推定の自己教師型微調整法を提案する。
本手法により,手動ラベリングを使わずにトレーニングデータを自動的に取得できる。
私たちのパイプラインは、プロセス実行中にシステムを微調整し、学習フェーズの必要性を排除します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel method for self-supervised fine-tuning of pose estimation for bin-picking. Leveraging zero-shot pose estimation, our approach enables the robot to automatically obtain training data without manual labeling. After pose estimation the object is grasped, and in-hand pose estimation is used for data validation. Our pipeline allows the system to fine-tune while the process is running, removing the need for a learning phase. The motivation behind our work lies in the need for rapid setup of pose estimation solutions. Specifically, we address the challenging task of bin picking, which plays a pivotal role in flexible robotic setups. Our method is implemented on a robotics work-cell, and tested with four different objects. For all objects, our method increases the performance and outperforms a state-of-the-art method trained on the CAD model of the objects.
- Abstract(参考訳): 本稿では,ビンピッキングにおけるポーズ推定の自己教師型微調整手法を提案する。
ゼロショットポーズ推定を活用することで,ロボットは手動ラベリングなしでトレーニングデータを自動的に取得できる。
ポーズ推定後、オブジェクトを把握し、データ検証に手動ポーズ推定を使用する。
私たちのパイプラインは、プロセス実行中にシステムを微調整し、学習フェーズの必要性を排除します。
私たちの仕事の背後にあるモチベーションは、ポーズ推定ソリューションの迅速なセットアップの必要性にあります。
具体的には、柔軟なロボットのセットアップにおいて重要な役割を果たすビンピックの課題に対処する。
本手法はロボットのワークセル上に実装され,4つの異なるオブジェクトでテストする。
全てのオブジェクトに対して、本手法はパフォーマンスを高め、オブジェクトのCADモデルに基づいて訓練された最先端のメソッドより優れる。
関連論文リスト
- Adapting Skills to Novel Grasps: A Self-Supervised Approach [11.030216531050044]
本研究では,1つのつかみポーズに対して定義された把握対象(例えば,ツール)を含む操作軌跡を新しいつかみポーズに適応させる問題について検討する。
この問題に対処するための一般的なアプローチは、可能な各ググルーピングに対して新しい軌跡を定義することであるが、これは非常に非効率である。
本稿では,自己教師付きデータ収集の期間のみを必要としながら,そのようなトラジェクトリを直接適応する手法を提案する。
論文 参考訳(メタデータ) (2024-07-31T22:18:09Z) - DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - Markerless Camera-to-Robot Pose Estimation via Self-supervised
Sim-to-Real Transfer [26.21320177775571]
本稿では,オンラインカメラ・ロボット・キャリブレーションと自己監督型トレーニング手法を備えたエンドツーエンドのポーズ推定フレームワークを提案する。
我々のフレームワークはロボットのポーズを解くための深層学習と幾何学的ビジョンを組み合わせており、パイプラインは完全に微分可能である。
論文 参考訳(メタデータ) (2023-02-28T05:55:42Z) - Planning for Learning Object Properties [117.27898922118946]
我々は、物体特性を象徴的な計画問題として認識するために、ニューラルネットワークを自動的に訓練する問題を定式化する。
トレーニングデータセット作成と学習プロセスを自動化するための戦略を作成するために,計画手法を使用します。
シミュレーションと実環境の両方で実験的な評価を行う。
論文 参考訳(メタデータ) (2023-01-15T09:37:55Z) - Sim-to-Real 6D Object Pose Estimation via Iterative Self-training for
Robotic Bin-picking [98.5984733963713]
コスト効率の良いロボットグルーピングを容易にするために,シミュレート・トゥ・リアルな6次元オブジェクトのポーズ推定のための反復的自己学習フレームワークを提案する。
我々は、豊富な仮想データを合成するためのフォトリアリスティックシミュレータを構築し、これを初期ポーズ推定ネットワークのトレーニングに利用する。
このネットワークは教師モデルの役割を担い、未ラベルの実データに対するポーズ予測を生成する。
論文 参考訳(メタデータ) (2022-04-14T15:54:01Z) - OSSID: Online Self-Supervised Instance Detection by (and for) Pose
Estimation [17.78557307620686]
多くのロボット操作アルゴリズムにはリアルタイムなオブジェクトポーズ推定が必要である。
高速検出アルゴリズムの訓練を自己監督するために、スローゼロショットポーズ推定器を利用するOSSIDフレームワークを提案する。
この自己教師型トレーニングは,既存のゼロショット検出手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:55:56Z) - ZePHyR: Zero-shot Pose Hypothesis Rating [36.52070583343388]
本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T01:48:39Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - 3D Registration for Self-Occluded Objects in Context [66.41922513553367]
このシナリオを効果的に処理できる最初のディープラーニングフレームワークを紹介します。
提案手法はインスタンスセグメンテーションモジュールとポーズ推定モジュールから構成される。
これにより、高価な反復手順を必要とせず、ワンショットで3D登録を行うことができます。
論文 参考訳(メタデータ) (2020-11-23T08:05:28Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。