論文の概要: Skill Transformer: A Monolithic Policy for Mobile Manipulation
- arxiv url: http://arxiv.org/abs/2308.09873v1
- Date: Sat, 19 Aug 2023 01:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 19:39:42.956707
- Title: Skill Transformer: A Monolithic Policy for Mobile Manipulation
- Title(参考訳): Skill Transformer:モバイル操作のためのモノリシックポリシー
- Authors: Xiaoyu Huang, Dhruv Batra, Akshara Rai, Andrew Szot
- Abstract要約: Skill Transformerは,条件付きシーケンスモデリングとスキルモジュール性を組み合わせた長軸ロボットタスクの解法である。
Skill Transformerは、ロボットの自我中心的・自我受容的な観察に基づいて、エンドツーエンドで訓練され、高いレベルのスキルと全体の低レベルのアクションの両方を予測する。
具体的ベンチマークでSkill Transformerをテストし、新しいシナリオで堅牢なタスク計画と低レベル制御を実行し、ハードリアレンジ問題におけるベースラインよりも2.5倍高い成功率を達成する。
- 参考スコア(独自算出の注目度): 36.18813073796717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Skill Transformer, an approach for solving long-horizon robotic
tasks by combining conditional sequence modeling and skill modularity.
Conditioned on egocentric and proprioceptive observations of a robot, Skill
Transformer is trained end-to-end to predict both a high-level skill (e.g.,
navigation, picking, placing), and a whole-body low-level action (e.g., base
and arm motion), using a transformer architecture and demonstration
trajectories that solve the full task. It retains the composability and
modularity of the overall task through a skill predictor module while reasoning
about low-level actions and avoiding hand-off errors, common in modular
approaches. We test Skill Transformer on an embodied rearrangement benchmark
and find it performs robust task planning and low-level control in new
scenarios, achieving a 2.5x higher success rate than baselines in hard
rearrangement problems.
- Abstract(参考訳): Skill Transformerは,条件付きシーケンスモデリングとスキルモジュール性を組み合わせた長軸ロボットタスクの解法である。
Skill Transformerは、ロボットの自我中心的かつ先天的な観察に基づいて、高度なスキル(ナビゲーション、ピック、配置など)と全身低レベルのアクション(ベースとアームの動作など)の両方を予測するために、トランスフォーマーアーキテクチャとデモトラジェクトリを使用してエンドツーエンドで訓練される。
スキル予測モジュールを通じてタスク全体の構成性とモジュール化を維持しながら、低レベルのアクションを推論し、モジュール的なアプローチで一般的なハンドオフエラーを回避する。
我々は,Skill Transformerを具体的再配置ベンチマークでテストし,新しいシナリオにおける堅牢なタスク計画と低レベル制御を実現し,ハード再配置問題におけるベースラインよりも2.5倍高い成功率を達成した。
関連論文リスト
- MeMo: Meaningful, Modular Controllers via Noise Injection [25.541496793132183]
新たなロボットが同じパーツから構築された場合,モジュール型コントローラを再利用することで,その制御を迅速に学習できることが示される。
私たちはMeMoと呼ばれるフレームワークでこれを実現し、Meは(Me)有界で(Mo)有界なコントローラーを学習します。
我々は,ロボット形態変化の簡易化を目標として,移動環境と把握環境の枠組みをベンチマークした。
論文 参考訳(メタデータ) (2024-05-24T18:39:20Z) - Generalize by Touching: Tactile Ensemble Skill Transfer for Robotic Furniture Assembly [24.161856591498825]
TEST(Tactile Ensemble Skill Transfer)は、制御ループに触覚フィードバックを組み込んだオフライン強化学習(RL)アプローチのパイオニアである。
TESTの中核となる設計は、高度計画のためのスキル移行モデルと、適応的なスキル内目標達成ポリシーのセットを学ぶことである。
その結果, TESTは90%以上の成功率を達成でき, 一般化政策の4倍以上の効率であることがわかった。
論文 参考訳(メタデータ) (2024-04-26T20:27:10Z) - Yell At Your Robot: Improving On-the-Fly from Language Corrections [84.09578841663195]
高いレベルのポリシーは、人間のフィードバックによって言語修正の形で容易に管理できることを示す。
このフレームワークは、ロボットがリアルタイムの言語フィードバックに迅速に適応するだけでなく、このフィードバックを反復的なトレーニングスキームに組み込むことを可能にする。
論文 参考訳(メタデータ) (2024-03-19T17:08:24Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - Bi-Manual Block Assembly via Sim-to-Real Reinforcement Learning [24.223788665601678]
2つのxArm6ロボットがU字型組立タスクを、シミュレーションで90%以上、実際のハードウェアで50%の確率で解決する。
以上の結果から,本システムは今後,深部RLおよびSim2Real転送バイマニュアルポリアの研究を刺激していきたいと願っている。
論文 参考訳(メタデータ) (2023-03-27T01:25:24Z) - MetaMorph: Learning Universal Controllers with Transformers [45.478223199658785]
ロボット工学では、主に1つのタスクのために1つのロボットを訓練します。
モジュラーロボットシステムは、汎用的なビルディングブロックをタスク最適化形態に柔軟な組み合わせを可能にする。
モジュール型ロボット設計空間上でユニバーサルコントローラを学習するためのトランスフォーマーベースのアプローチであるMetaMorphを提案する。
論文 参考訳(メタデータ) (2022-03-22T17:58:31Z) - Transformer-based deep imitation learning for dual-arm robot
manipulation [5.3022775496405865]
デュアルアームの操作設定では、追加のロボットマニピュレータによって引き起こされる状態次元の増加が注意をそらす。
本稿では、逐次入力における要素間の依存関係を計算し、重要な要素に焦点をあてる自己認識機構を用いてこの問題に対処する。
自己注意型アーキテクチャの変種であるTransformerは、実世界のデュアルアーム操作タスクを解決するために、深層模倣学習に適用される。
論文 参考訳(メタデータ) (2021-08-01T07:42:39Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - UPDeT: Universal Multi-agent Reinforcement Learning via Policy
Decoupling with Transformers [108.92194081987967]
タスクに適合する1つのアーキテクチャを設計し、汎用的なマルチエージェント強化学習パイプラインを最初に試行する。
従来のRNNモデルとは異なり、トランスフォーマーモデルを用いてフレキシブルなポリシーを生成する。
提案方式はUPDeT(Universal Policy Decoupling Transformer)と名付けられ,動作制限を緩和し,マルチエージェントタスクの決定プロセスをより説明しやすいものにする。
論文 参考訳(メタデータ) (2021-01-20T07:24:24Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。