論文の概要: DefGoalNet: Contextual Goal Learning from Demonstrations For Deformable
Object Manipulation
- arxiv url: http://arxiv.org/abs/2309.14463v1
- Date: Mon, 25 Sep 2023 18:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 16:17:08.295000
- Title: DefGoalNet: Contextual Goal Learning from Demonstrations For Deformable
Object Manipulation
- Title(参考訳): DefGoalNet: 変形可能なオブジェクト操作のためのデモからのコンテキスト目標学習
- Authors: Bao Thach, Tanner Watts, Shing-Hei Ho, Tucker Hermans, Alan Kuntz
- Abstract要約: 変形可能な物体の目標形状を学習するためのニューラルネットワークDefGoalNetを開発した。
シミュレーションと物理ロボットの両方において,本手法の有効性を示す。
- 参考スコア(独自算出の注目度): 11.484820908345563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shape servoing, a robotic task dedicated to controlling objects to desired
goal shapes, is a promising approach to deformable object manipulation. An
issue arises, however, with the reliance on the specification of a goal shape.
This goal has been obtained either by a laborious domain knowledge engineering
process or by manually manipulating the object into the desired shape and
capturing the goal shape at that specific moment, both of which are impractical
in various robotic applications. In this paper, we solve this problem by
developing a novel neural network DefGoalNet, which learns deformable object
goal shapes directly from a small number of human demonstrations. We
demonstrate our method's effectiveness on various robotic tasks, both in
simulation and on a physical robot. Notably, in the surgical retraction task,
even when trained with as few as 10 demonstrations, our method achieves a
median success percentage of nearly 90%. These results mark a substantial
advancement in enabling shape servoing methods to bring deformable object
manipulation closer to practical, real-world applications.
- Abstract(参考訳): 形状サーボ(Shape servoing)は、オブジェクトを目的の形状に制御するためのロボットタスクで、変形可能なオブジェクト操作に対する有望なアプローチである。
しかし、ゴール形状の仕様に依存して問題が発生する。
この目的は、退屈なドメイン知識工学プロセスによって達成されたか、または、オブジェクトを所望の形状に手動で操作し、その特定の瞬間に目標形状をキャプチャすることで達成された。
本稿では,変形可能な物体の目標形状を直接学習するニューラルネットワークDefGoalNetを開発することにより,この問題を解決する。
本手法は,シミュレーションと物理ロボットの両方において,様々なロボットタスクにおいて有効であることを示す。
特に外科的リトラクション作業では,10回程度の実演で訓練しても,平均成功率は90%近くであった。
これらの結果は、変形可能なオブジェクト操作を現実の応用に近づけるための形状サーボ法の実現に大きく貢献する。
関連論文リスト
- Affordance-Guided Reinforcement Learning via Visual Prompting [51.361977466993345]
本稿では、視覚言語モデル(VLM)によって形成される報酬について研究し、ロボット学習における報酬の密度を定義する。
自然言語記述によって指定された実世界の操作タスクにおいて、これらの報酬は自律的RLのサンプル効率を向上させる。
論文 参考訳(メタデータ) (2024-07-14T21:41:29Z) - ManiFoundation Model for General-Purpose Robotic Manipulation of Contact Synthesis with Arbitrary Objects and Robots [24.623252918225088]
汎用ロボットが幅広い操作タスクをこなせるようなモデルを開発する必要がある。
本研究は,汎用ロボット操作の基礎モデルを構築するための包括的枠組みを導入する。
私たちのモデルは、平均的な成功率を約90%達成します。
論文 参考訳(メタデータ) (2024-05-11T09:18:37Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Diverse Zero-shot Robot Manipulation [65.46610405509338]
Track2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
これらの2次元トラック予測を用いて、操作対象の剛体変換列を推定し、ロボットのエンドエフェクタのポーズを得る。
学習したトラック予測を残留ポリシーと組み合わせることで、ゼロショットロボットの操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - One-shot Imitation Learning via Interaction Warping [32.5466340846254]
本稿では,1つの実演からSE(3)ロボット操作ポリシーを学習するためのインタラクションウォーピング法を提案する。
我々は、オブジェクトインスタンス間で点雲を整列させる技術である形状ワープを用いて、環境中の各オブジェクトの3Dメッシュを推論する。
3つのシミュレーションおよび実世界のオブジェクト再配置タスクで1ショットの模倣学習を成功させる。
論文 参考訳(メタデータ) (2023-06-21T17:26:11Z) - DeformerNet: Learning Bimanual Manipulation of 3D Deformable Objects [13.138509669247508]
弾性、3次元変形可能な物体の解析モデルは、物体の形状を決定する際に存在する潜在的無限の自由度を記述するために、多数のパラメータを必要とする。
従来の3D形状制御の試みは、オブジェクト形状を表現するために手作りの特徴に依存しており、オブジェクト固有の制御モデルの訓練が必要である。
DeformerNetニューラルネットワークアーキテクチャは、操作対象の部分ビューポイントクラウドと目標形状のポイントクラウドで動作する。
この形状埋め込みにより、ロボットは必要なロボットのエンドエフェクタ動作を計算するビジュアルサーボコントローラを学習することができる。
論文 参考訳(メタデータ) (2023-05-08T04:08:06Z) - DexDeform: Dexterous Deformable Object Manipulation with Human
Demonstrations and Differentiable Physics [97.75188532559952]
人間の実演から巧妙な操作スキルを抽象化する原理的枠組みを提案する。
次に、イマジネーションにおけるアクション抽象化を計画する上で、デモを使ってスキルモデルをトレーニングします。
提案手法の有効性を評価するために,6つの難解な変形可能なオブジェクト操作タスクの組を導入する。
論文 参考訳(メタデータ) (2023-03-27T17:59:49Z) - Learning to Transfer In-Hand Manipulations Using a Greedy Shape
Curriculum [79.6027464700869]
本研究では, 動的シミュレーションにおける簡易物体の自然な, 頑健な手動操作が, 高品質なモーションキャプチャの例から学習可能であることを示す。
本稿では,ティーポット,バニー,ボトル,トレイン,ゾウなど,さまざまな対象に適用可能な,単純なグリージーなカリキュラム検索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-14T17:08:19Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Learning Visual Shape Control of Novel 3D Deformable Objects from
Partial-View Point Clouds [7.1659268120093635]
弾性、3次元変形可能な物体の解析モデルは、物体の形状を決定する際に存在する潜在的無限の自由度を記述するために、多数のパラメータを必要とする。
従来の3D形状制御の試みは、オブジェクト形状を表現するために手作りの特徴に依存しており、オブジェクト固有の制御モデルの訓練が必要である。
DeformerNetニューラルネットワークアーキテクチャは、操作対象の部分的な視点クラウドと目標形状の点クラウドで動作し、オブジェクト形状の低次元表現を学習する。
論文 参考訳(メタデータ) (2021-10-10T02:34:57Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。