論文の概要: SoftGPT: Learn Goal-oriented Soft Object Manipulation Skills by
Generative Pre-trained Heterogeneous Graph Transformer
- arxiv url: http://arxiv.org/abs/2306.12677v1
- Date: Thu, 22 Jun 2023 05:48:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 15:25:29.646544
- Title: SoftGPT: Learn Goal-oriented Soft Object Manipulation Skills by
Generative Pre-trained Heterogeneous Graph Transformer
- Title(参考訳): softgpt: 生成的事前学習型不均一グラフトランスフォーマによる目標指向のソフトオブジェクト操作スキルの学習
- Authors: Junjia Liu, Zhihao Li, Sylvain Calinon, and Fei Chen
- Abstract要約: 家庭シーンにおけるソフトオブジェクト操作タスクは、既存のロボットスキル学習技術にとって重要な課題である。
本研究では,ソフトオブジェクト操作スキル学習モデルであるSoftGPTを提案する。
各ダウンストリームタスクに対して、ゴール指向ポリシーエージェントがトレーニングされ、その後のアクションを予測し、SoftGPTが結果を生成する。
- 参考スコア(独自算出の注目度): 11.150289226148471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Soft object manipulation tasks in domestic scenes pose a significant
challenge for existing robotic skill learning techniques due to their complex
dynamics and variable shape characteristics. Since learning new manipulation
skills from human demonstration is an effective way for robot applications,
developing prior knowledge of the representation and dynamics of soft objects
is necessary. In this regard, we propose a pre-trained soft object manipulation
skill learning model, namely SoftGPT, that is trained using large amounts of
exploration data, consisting of a three-dimensional heterogeneous graph
representation and a GPT-based dynamics model. For each downstream task, a
goal-oriented policy agent is trained to predict the subsequent actions, and
SoftGPT generates the consequences of these actions. Integrating these two
approaches establishes a thinking process in the robot's mind that provides
rollout for facilitating policy learning. Our results demonstrate that
leveraging prior knowledge through this thinking process can efficiently learn
various soft object manipulation skills, with the potential for direct learning
from human demonstrations.
- Abstract(参考訳): 室内のソフトオブジェクト操作タスクは、複雑な力学と可変形状特性により、既存のロボットスキル学習技術にとって大きな課題となる。
人間のデモンストレーションから新しい操作スキルを学ぶことはロボットアプリケーションにとって効果的な方法であるため、ソフトオブジェクトの表現とダイナミクスに関する事前知識を開発する必要がある。
そこで本研究では,3次元の異種グラフ表現とGPTに基づくダイナミックスモデルからなる大量の探索データを用いて,事前学習したソフトオブジェクト操作スキル学習モデルであるSoftGPTを提案する。
各ダウンストリームタスクでは、目標指向のポリシエージェントが次のアクションを予測するようにトレーニングされ、softgptがこれらのアクションの結果を生成する。
これら2つのアプローチを統合することで、ポリシー学習を促進するためのロールアウトを提供するロボットの思考プロセスを確立する。
本研究は,この思考プロセスによる事前知識の活用が,人間の実演から直接学習できる可能性とともに,様々なソフトオブジェクト操作スキルを効率的に学習できることを実証した。
関連論文リスト
- Learning Goal-oriented Bimanual Dough Rolling Using Dynamic Heterogeneous Graph Based on Human Demonstration [19.74767906744719]
ソフトオブジェクト操作はロボットにとって重要な課題であり、状態表現と操作ポリシー学習に効果的な技術を必要とする。
本研究では,目標指向のソフトオブジェクト操作ポリシーを学習するための動的ヘテロジニアスグラフベースモデルを提案する。
論文 参考訳(メタデータ) (2024-10-15T16:12:00Z) - Learning the Generalizable Manipulation Skills on Soft-body Tasks via Guided Self-attention Behavior Cloning Policy [9.345203561496552]
GP2E行動クローニングポリシーは、ソフトボディタスクから汎用的な操作スキルを学ぶためのエージェントを誘導することができる。
本研究は,Embodied AIモデルの一般化能力を向上する手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-10-08T07:31:10Z) - SKT: Integrating State-Aware Keypoint Trajectories with Vision-Language Models for Robotic Garment Manipulation [82.61572106180705]
本稿では、視覚言語モデル(VLM)を用いて、様々な衣服カテゴリーにおけるキーポイント予測を改善する統一的なアプローチを提案する。
我々は、高度なシミュレーション技術を用いて大規模な合成データセットを作成し、大規模な実世界のデータを必要としないスケーラブルなトレーニングを可能にした。
実験結果から, VLM法はキーポイント検出精度とタスク成功率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-09-26T17:26:16Z) - A Survey of Embodied Learning for Object-Centric Robotic Manipulation [27.569063968870868]
オブジェクト中心のロボット操作のための身体学習は、AIの急速に発展し、挑戦的な分野である。
データ駆動機械学習とは異なり、具体化学習は環境との物理的相互作用を通じてロボット学習に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-21T11:32:09Z) - RoboPack: Learning Tactile-Informed Dynamics Models for Dense Packing [38.97168020979433]
本稿では, 視覚と触覚を組み合わせ, 触覚インフォームド・ダイナミックスモデルを学習することでロボット操作を実現するアプローチを提案する。
提案するフレームワークであるRoboPackは、オブジェクト状態を推定するために、リカレントグラフニューラルネットワークを使用している。
我々は,非包括的操作と密包装作業に対するソフトバブル触覚センサを備えた実ロボットへのアプローチを実証する。
論文 参考訳(メタデータ) (2024-07-01T16:08:37Z) - Tactile Active Inference Reinforcement Learning for Efficient Robotic
Manipulation Skill Acquisition [10.072992621244042]
触覚能動推論強化学習(Tactile Active Inference Reinforcement Learning, Tactile-AIRL)と呼ばれるロボット操作におけるスキル学習手法を提案する。
強化学習(RL)の性能を高めるために,モデルに基づく手法と本質的な好奇心をRLプロセスに統合した能動推論を導入する。
本研究では,タスクをプッシュする非包括的オブジェクトにおいて,学習効率が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-11-19T10:19:22Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。