論文の概要: Learning Keypoints from Synthetic Data for Robotic Cloth Folding
- arxiv url: http://arxiv.org/abs/2205.06714v1
- Date: Fri, 13 May 2022 15:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 16:26:17.742755
- Title: Learning Keypoints from Synthetic Data for Robotic Cloth Folding
- Title(参考訳): ロボットの衣服の折り畳みに関する合成データからキーポイントを学習する
- Authors: Thomas Lips, Victor-Louis De Gusseme, Francis wyffels
- Abstract要約: 我々は,キーポイント検出器を合成データから純粋に学習し,低コストなデータ収集を実現することを提案する。
本稿では,タオルの画像を手続き的に生成し,それをCNNの訓練に利用する。
本研究では, 片手ロボットにおけるタオルの折り畳み検出性能を評価し, グリップと折り畳みの成功率は, それぞれ77%, 53%であった。
- 参考スコア(独自算出の注目度): 1.2504473943407093
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic cloth manipulation is challenging due to its deformability, which
makes determining its full state infeasible. However, for cloth folding, it
suffices to know the position of a few semantic keypoints. Convolutional neural
networks (CNN) can be used to detect these keypoints, but require large amounts
of annotated data, which is expensive to collect. To overcome this, we propose
to learn these keypoint detectors purely from synthetic data, enabling low-cost
data collection. In this paper, we procedurally generate images of towels and
use them to train a CNN. We evaluate the performance of this detector for
folding towels on a unimanual robot setup and find that the grasp and fold
success rates are 77% and 53%, respectively. We conclude that learning keypoint
detectors from synthetic data for cloth folding and related tasks is a
promising research direction, discuss some failures and relate them to future
work. A video of the system, as well as the codebase, more details on the CNN
architecture and the training setup can be found at
https://github.com/tlpss/workshop-icra-2022-cloth-keypoints.git.
- Abstract(参考訳): ロボット布の操作はその変形性から困難であり、完全な状態を決定することは不可能である。
しかし、布の折り畳みについては、いくつかの意味キーポイントの位置を知るだけでよい。
畳み込みニューラルネットワーク(CNN)は、これらのキーポイントを検出するために使用できるが、大量の注釈付きデータを必要とするため、収集に費用がかかる。
そこで我々は,これらのキーポイント検出器を合成データから学習し,低コストなデータ収集を実現することを提案する。
本稿では,タオルの画像を手続き的に生成し,それをCNNの訓練に用いる。
本研究では, 片手ロボットにおけるタオルの折り畳み性能を評価し, グリップ成功率は77%, 折り畳み成功率は53%であった。
筆者らは,布の折り畳みや関連タスクの合成データからキーポイント検出器を学習することが,有望な研究方向であり,いくつかの失敗を議論し,今後の課題に関連付けることを結論付けた。
CNNアーキテクチャとトレーニング設定の詳細は、https://github.com/tlpss/workshop-icra-2022-cloth-keypoints.gitにある。
関連論文リスト
- Learning Keypoints for Robotic Cloth Manipulation using Synthetic Data [1.125159338610819]
ほぼ平らな布品のキーポイント検出器を訓練するための合成データパイプラインを提案する。
我々は、Tシャツ、タオル、ショートパンツの両方の検出器を訓練し、平均精度は64%、平均キーポイント距離は18ピクセルである。
実世界のデータの微調整により、パフォーマンスは74% mAP、平均距離は9ピクセルに向上する。
論文 参考訳(メタデータ) (2024-01-03T13:16:38Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Automatically Prepare Training Data for YOLO Using Robotic In-Hand
Observation and Synthesis [14.034128227585143]
本稿では,ロボットが収集した限られたデータセットを拡大するために,ロボット内観察とデータ合成を組み合わせることを提案する。
収集された合成画像を組み合わせて、ディープ検出ニューラルネットワークをトレーニングする。
その結果, 観察画像と合成画像の組み合わせが手動データ作成に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-01-04T04:20:08Z) - BeCAPTCHA-Type: Biometric Keystroke Data Generation for Improved Bot
Detection [63.447493500066045]
本研究では,キーストローク生体データ合成のためのデータ駆動学習モデルを提案する。
提案手法は,ユニバーサルモデルとユーザ依存モデルに基づく2つの統計的手法と比較する。
実験フレームワークでは16万件の被験者から1億3600万件のキーストロークイベントのデータセットについて検討している。
論文 参考訳(メタデータ) (2022-07-27T09:26:15Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - A data-set of piercing needle through deformable objects for Deep
Learning from Demonstrations [0.21096737598952847]
本稿では,ダ・ヴィンチ・リサーチ・キットの2本の腕で針を挿入/ピアスするデータセットについて述べる。
我々は、単純なフィードフォワードCNNと異なるリカレント畳み込みネットワーク(RCN)を含む、いくつかの深いRLfDアーキテクチャを実装している。
本研究は、ベースラインフィードフォワードCNNが、ロボットの視覚情報と次のステップ制御動作の関係をうまく学習しているにもかかわらず、RCNがモデルの予測精度を向上させることを示唆している。
論文 参考訳(メタデータ) (2020-12-04T08:27:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。