論文の概要: Learning to Design and Use Tools for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2311.00754v1
- Date: Wed, 1 Nov 2023 18:00:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 16:09:01.660806
- Title: Learning to Design and Use Tools for Robotic Manipulation
- Title(参考訳): ロボット操作のためのツールの設計と利用を学ぶ
- Authors: Ziang Liu, Stephen Tian, Michelle Guo, C. Karen Liu, Jiajun Wu
- Abstract要約: 深層学習による形態と制御を共同最適化する最近の技術は, 移動エージェントの設計に有効である。
単一設計ではなく,設計方針の学習を提案する。
このフレームワークは,マルチゴール設定やマルチバリアント設定において,従来の手法よりもサンプリング効率が高いことを示す。
- 参考スコア(独自算出の注目度): 21.18538869008642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When limited by their own morphologies, humans and some species of animals
have the remarkable ability to use objects from the environment toward
accomplishing otherwise impossible tasks. Robots might similarly unlock a range
of additional capabilities through tool use. Recent techniques for jointly
optimizing morphology and control via deep learning are effective at designing
locomotion agents. But while outputting a single morphology makes sense for
locomotion, manipulation involves a variety of strategies depending on the task
goals at hand. A manipulation agent must be capable of rapidly prototyping
specialized tools for different goals. Therefore, we propose learning a
designer policy, rather than a single design. A designer policy is conditioned
on task information and outputs a tool design that helps solve the task. A
design-conditioned controller policy can then perform manipulation using these
tools. In this work, we take a step towards this goal by introducing a
reinforcement learning framework for jointly learning these policies. Through
simulated manipulation tasks, we show that this framework is more sample
efficient than prior methods in multi-goal or multi-variant settings, can
perform zero-shot interpolation or fine-tuning to tackle previously unseen
goals, and allows tradeoffs between the complexity of design and control
policies under practical constraints. Finally, we deploy our learned policies
onto a real robot. Please see our supplementary video and website at
https://robotic-tool-design.github.io/ for visualizations.
- Abstract(参考訳): 自身の形態によって制限されるとき、人間と一部の動物は、他の不可能でないタスクを達成するために、環境からオブジェクトを使用する顕著な能力を持っている。
ロボットも同様に、ツールの使用によって、さまざまな追加機能をアンロックする。
深層学習による形態と制御を共同最適化する最近の技術は, 移動エージェントの設計に有効である。
しかし、ひとつの形態を出力することは移動にとって理にかなっているが、操作は手元にあるタスクの目標に応じて様々な戦略を必要とする。
操作エージェントは、異なる目標のために専門ツールを迅速にプロトタイピングできなければならない。
そこで我々は,単一設計ではなく,設計方針の学習を提案する。
デザイナーポリシーはタスク情報に条件付けされ、タスクの解決を支援するツール設計を出力する。
設計条件付きコントローラポリシーは、これらのツールを使用して操作を行うことができる。
本研究では,これらの政策を共同学習するための強化学習フレームワークを導入することで,この目標に向けて一歩前進する。
シミュレーション操作タスクにより,マルチゴールやマルチバリアント設定において,従来の手法よりもサンプル効率が良く,ゼロショット補間や微調整が可能であり,設計の複雑さと実際の制約下での制御方針とのトレードオフが可能であることを示す。
最後に、学習したポリシーを本物のロボットにデプロイする。
詳細はhttps://robotic-tool-design.github.io/で確認できる。
関連論文リスト
- Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - Creative Robot Tool Use with Large Language Models [47.11935262923095]
本稿では,暗黙的な身体的制約や長期計画を含むタスクにおいて,ツールを創造的に活用できるロボットの実現可能性について検討する。
我々は、自然言語命令を受け入れ、シミュレーションと実環境の両方でロボットを制御する実行可能なコードを出力するシステムであるRoboToolを開発した。
論文 参考訳(メタデータ) (2023-10-19T18:02:15Z) - Learning Generalizable Tool-use Skills through Trajectory Generation [13.879860388944214]
4つの異なる変形可能なオブジェクト操作タスクで1つのモデルをトレーニングします。
モデルは様々な新しいツールに一般化され、ベースラインを大幅に上回る。
トレーニングされたポリシーを、目に見えないツールを使って現実世界でテストし、人間に匹敵するパフォーマンスを実現します。
論文 参考訳(メタデータ) (2023-09-29T21:32:42Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Polybot: Training One Policy Across Robots While Embracing Variability [70.74462430582163]
複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
われわれのフレームワークは、まず、手首カメラを利用して、我々のポリシーの観察空間と行動空間を具体化して調整する。
6つのタスクと3つのロボットにまたがる60時間以上のデータセットを用いて,関節の形状や大きさの異なるデータセットの評価を行った。
論文 参考訳(メタデータ) (2023-07-07T17:21:16Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Learning Tool Morphology for Contact-Rich Manipulation Tasks with
Differentiable Simulation [27.462052737553055]
本稿では,異なる物理シミュレータを応用して,コンタクトリッチな操作タスクのためのツール形態を自動学習するエンドツーエンドフレームワークを提案する。
提案手法では,タスク性能に関する目的を定義し,タスクの変動をランダムにすることで,頑健な形態学の学習を可能にする。
提案手法の有効性を, ロープの巻き上げ, 箱をひっくり返し, ピースをスクープに押し付けるなど, 様々なシナリオにおける新しいツールの設計手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-11-04T00:57:36Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。