論文の概要: Recognising Known Configurations of Garments For Dual-Arm Robotic
Flattening
- arxiv url: http://arxiv.org/abs/2205.00225v1
- Date: Sat, 30 Apr 2022 10:24:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 06:08:16.810785
- Title: Recognising Known Configurations of Garments For Dual-Arm Robotic
Flattening
- Title(参考訳): Dual-Arm Robotic Flatteningにおける衣服構成の認識
- Authors: Li Duan and Gerardo Argon-Camarasa
- Abstract要約: 衣服の「既知の構成」を認識するための効果的なロボット操作手法を提案する。
私たちのロボット操作計画は、重要な把握ポイントを見つけ、衣服を伸ばし、衣服を持ち上げるという4つの戦略を特徴としている。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic deformable-object manipulation is a challenge in the robotic industry
because deformable objects have complicated and various object states.
Predicting those object states and updating manipulation planning are
time-consuming and computationally expensive. In this paper, we propose an
effective robotic manipulation approach for recognising 'known configurations'
of garments with a 'Known Configuration neural Network' (KCNet) and choosing
pre-designed manipulation plans based on the recognised known configurations.
Our robotic manipulation plan features a four-action strategy: finding two
critical grasping points, stretching the garments, and lifting down the
garments. We demonstrate that our approach only needs 98 seconds on average to
flatten garments of five categories.
- Abstract(参考訳): ロボットの変形可能なオブジェクト操作は、変形可能なオブジェクトが複雑でさまざまなオブジェクト状態を持つため、ロボット産業における課題である。
これらのオブジェクト状態の予測と操作計画の更新には時間と計算コストがかかる。
本稿では,KCNet(Known Configuration Neural Network)を用いて衣服の「既知の構成」を認識し,認識された構成に基づいて事前設計された操作計画を選択するための効果的なロボット操作手法を提案する。
私たちのロボット操作計画は、重要な把握ポイントを見つけ、衣服を伸ばし、衣服を持ち上げるという4つの戦略を特徴としている。
我々は5つのカテゴリの衣服を平らにするのに平均98秒しか必要としないことを示した。
関連論文リスト
- Polybot: Training One Policy Across Robots While Embracing Variability [70.74462430582163]
複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
われわれのフレームワークは、まず、手首カメラを利用して、我々のポリシーの観察空間と行動空間を具体化して調整する。
6つのタスクと3つのロボットにまたがる60時間以上のデータセットを用いて,関節の形状や大きさの異なるデータセットの評価を行った。
論文 参考訳(メタデータ) (2023-07-07T17:21:16Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Pave the Way to Grasp Anything: Transferring Foundation Models for
Universal Pick-Place Robots [50.73735524550534]
そこで本稿では,最先端基礎モデルによって生成された言語基底セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
マスクから伝達される正確なセマンティクスとジオメトリを多視点ポリシーモデルに統合することにより、正確なオブジェクトのポーズを認識し、サンプル効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - A Transferable Legged Mobile Manipulation Framework Based on Disturbance
Predictive Control [15.044159090957292]
四足歩行ロボットにロボットアームを装着した足の移動操作は、ロボットの性能を大幅に向上させる。
本稿では,潜在動的アダプタを用いた強化学習スキームを低レベルコントローラに組み込んだ統合フレームワーク外乱予測制御を提案する。
論文 参考訳(メタデータ) (2022-03-02T14:54:10Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - Scene Editing as Teleoperation: A Case Study in 6DoF Kit Assembly [18.563562557565483]
遠隔操作によるシーン編集(SEaT)の枠組みを提案する。
ロボットを制御する代わりに、ユーザーはタスクのゴールを指定することに集中する。
ユーザは、ロボットハードウェアの専門知識を必要とせずに遠隔操作を行うことができる。
論文 参考訳(メタデータ) (2021-10-09T04:22:21Z) - In-air Knotting of Rope using Dual-Arm Robot based on Deep Learning [8.365690203298966]
深層学習に基づく双腕二本指ロボットを用いて,ロープの空中結節を成功させた。
全ての対象状態に対応する適切なロボット動作のマニュアル記述を事前に作成することは困難である。
そこで我々は,ロボットに2つの深層ニューラルネットワークを訓練し,そのセンサモデレータから収集したデータに基づいてボクノットとオーバーハンドノットを行うよう指示するモデルを構築した。
論文 参考訳(メタデータ) (2021-03-17T02:11:58Z) - Learning by Watching: Physical Imitation of Manipulation Skills from
Human Videos [28.712673809577076]
本稿では,ロボット操作作業のための人間ビデオからの物理模倣手法を提案する。
人間のビデオをロボットドメインに翻訳し,教師なしのキーポイント検出を行う知覚モジュールを設計した。
リーチ、プッシュ、スライディング、コーヒー製造、引き出しの閉鎖を含む5つのロボット操作タスクに対するアプローチの有効性を評価します。
論文 参考訳(メタデータ) (2021-01-18T18:50:32Z) - Predicting Sample Collision with Neural Networks [5.713670854553366]
本稿では,サンプリングベース動作計画における高価なプリミティブ操作のコストに対処する枠組みを提案する。
我々は,2次元および3次元の作業空間における多様なロボットによる複数計画問題の枠組みを評価する。
論文 参考訳(メタデータ) (2020-06-30T14:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。