論文の概要: GenCHiP: Generating Robot Policy Code for High-Precision and Contact-Rich Manipulation Tasks
- arxiv url: http://arxiv.org/abs/2404.06645v1
- Date: Tue, 9 Apr 2024 22:47:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 15:59:05.393420
- Title: GenCHiP: Generating Robot Policy Code for High-Precision and Contact-Rich Manipulation Tasks
- Title(参考訳): GenCHiP:高精度・コンタクトリッチ操作タスクのためのロボットポリシーコード生成
- Authors: Kaylee Burns, Ajinkya Jain, Keegan Go, Fei Xia, Michael Stark, Stefan Schaal, Karol Hausman,
- Abstract要約: 大規模言語モデル(LLM)はロボットポリシーコードの生成に成功しているが、今のところこれらの結果はハイレベルなタスクに限られている。
適切なアクション空間では、LLMは様々なコンタクトリッチかつ高精度な操作タスクのためのポリシーを生成することができる。
- 参考スコア(独自算出の注目度): 28.556818911535498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have been successful at generating robot policy code, but so far these results have been limited to high-level tasks that do not require precise movement. It is an open question how well such approaches work for tasks that require reasoning over contact forces and working within tight success tolerances. We find that, with the right action space, LLMs are capable of successfully generating policies for a variety of contact-rich and high-precision manipulation tasks, even under noisy conditions, such as perceptual errors or grasping inaccuracies. Specifically, we reparameterize the action space to include compliance with constraints on the interaction forces and stiffnesses involved in reaching a target pose. We validate this approach on subtasks derived from the Functional Manipulation Benchmark (FMB) and NIST Task Board Benchmarks. Exposing this action space alongside methods for estimating object poses improves policy generation with an LLM by greater than 3x and 4x when compared to non-compliant action spaces
- Abstract(参考訳): 大言語モデル(LLM)はロボットポリシーコードの生成に成功しているが、これまでのところ、正確な動作を必要としないハイレベルなタスクに限られている。
このようなアプローチが、接触力の推論や厳格な成功の許容範囲内での作業を必要とするタスクに対して、どの程度うまく機能するかは、オープンな疑問である。
適切な行動空間では、LLMは知覚的誤りや不正確な把握といったノイズ条件下であっても、様々な接触に富んだ高精度な操作タスクのポリシーを生成することができる。
具体的には、アクション空間を再パラメータ化して、ターゲットのポーズに到達する際の相互作用力と硬さの制約に準拠するようにします。
機能操作ベンチマーク(FMB)とNISTタスクボードベンチマーク(NIST Task Board Benchmarks)から派生したサブタスクに対して,このアプローチを検証する。
オブジェクトのポーズを推定する手法と共にこのアクション空間をエクスポージングすることは、非準拠のアクション空間と比較して、LCMによるポリシー生成を3倍と4倍に改善する。
関連論文リスト
- MALMM: Multi-Agent Large Language Models for Zero-Shot Robotics Manipulation [52.739500459903724]
大規模言語モデル(LLM)は、ロボティクスの操作やナビゲーションなど、さまざまな領域にまたがる優れた計画能力を示している。
特殊なLLMエージェント間で高レベル計画および低レベル制御コード生成を分散する新しいマルチエージェントLLMフレームワークを提案する。
長軸タスクを含む9つのRLBenchタスクに対するアプローチを評価し、ゼロショット環境でロボット操作を解く能力を実証した。
論文 参考訳(メタデータ) (2024-11-26T17:53:44Z) - MATCH POLICY: A Simple Pipeline from Point Cloud Registration to Manipulation Policies [25.512068008948603]
MATCH POLICYは、高精度なピックと配置タスクを解決するパイプラインである。
アクション推論をポイントクラウド登録タスクに転送する。
非常に高いサンプル効率と、目に見えない構成への一般化性を実現する。
論文 参考訳(メタデータ) (2024-09-23T20:09:43Z) - Towards Natural Language-Driven Assembly Using Foundation Models [11.710022685486914]
大規模言語モデル(LLM)と強力な視覚モデルにより、ビジョン・ランゲージ・アクションモデル(英語版)の分野での迅速な研究と開発が可能となった。
本稿では,LLMをベースとしたグローバルコントロールポリシを提案する。
このフレームワークへのLLMの統合は、言語入力の解釈と処理だけでなく、多種多様な複雑なロボット操作のための制御機構の強化においても、その重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-06-23T12:14:37Z) - Generalizable Long-Horizon Manipulations with Large Language Models [91.740084601715]
本研究は,Large Language Models (LLMs) の機能を活用して,汎用可能な長距離操作のための原始的なタスク条件を生成するフレームワークを導入する。
我々は,Pybulletに基づくロボット操作タスクスイートを作成し,長期作業評価を行う。
論文 参考訳(メタデータ) (2023-10-03T17:59:46Z) - AlphaBlock: Embodied Finetuning for Vision-Language Reasoning in Robot
Manipulation [50.737355245505334]
本稿では,ロボット操作タスクにおける高レベル認知能力を学習するための新しいフレームワークを提案する。
得られたデータセットAlphaBlockは、多段階のテキストプランとペア観測による35の包括的なハイレベルタスクで構成されている。
論文 参考訳(メタデータ) (2023-05-30T09:54:20Z) - Efficient Skill Acquisition for Complex Manipulation Tasks in Obstructed
Environments [18.348489257164356]
本稿では,オブジェクト指向生成モデル(OCGM)を多目的ゴール識別に活用する,効率的なスキル獲得システムを提案する。
OCGMは、新しいシーンでワンショットターゲットオブジェクトの識別と再識別を可能にし、MPは障害物を避けながらロボットを対象オブジェクトに誘導することができる。
論文 参考訳(メタデータ) (2023-03-06T18:49:59Z) - Planning to Practice: Efficient Online Fine-Tuning by Composing Goals in
Latent Space [76.46113138484947]
汎用ロボットは、現実世界の非構造環境において困難なタスクを完了するために、多様な行動レパートリーを必要とする。
この問題に対処するため、目標条件強化学習は、コマンド上の幅広いタスクの目標に到達可能なポリシーを取得することを目的としている。
本研究では,長期的課題に対する目標条件付き政策を実践的に訓練する手法であるPlanning to Practiceを提案する。
論文 参考訳(メタデータ) (2022-05-17T06:58:17Z) - Robot Learning of Mobile Manipulation with Reachability Behavior Priors [38.49783454634775]
モバイルマニピュレーション(MM)システムは、非構造化現実環境におけるパーソナルアシスタントの役割を引き継ぐ上で理想的な候補である。
その他の課題として、MMは移動性と操作性の両方を必要とするタスクを実行するために、ロボットの実施形態を効果的に調整する必要がある。
本研究では,アクタ批判的RL手法におけるロボットの到達可能性の先行性の統合について検討した。
論文 参考訳(メタデータ) (2022-03-08T12:44:42Z) - Towards Coordinated Robot Motions: End-to-End Learning of Motion
Policies on Transform Trees [63.31965375413414]
人間による実証から構造化政策を学習し、マルチタスクの課題解決を提案します。
我々の構造化ポリシーは、異なる空間におけるサブタスクポリシーを組み合わせるためのフレームワークであるRMPflowにインスパイアされている。
マルチタスク問題に適したエンドツーエンドの学習目標関数を導き出します。
論文 参考訳(メタデータ) (2020-12-24T22:46:22Z) - Deep Reinforcement Learning for Contact-Rich Skills Using Compliant
Movement Primitives [0.0]
産業用ロボットのさらなる統合は、柔軟性、適応性、意思決定スキルの制限によって妨げられている。
収束と一般化を容易にする異なるプルーニング手法を提案する。
提案手法は,空間,サイズ,形状,および密接に関連するシナリオに不変な挿入スキルを学習できることを実証する。
論文 参考訳(メタデータ) (2020-08-30T17:29:43Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。