論文の概要: MuTT: A Multimodal Trajectory Transformer for Robot Skills
- arxiv url: http://arxiv.org/abs/2407.15660v1
- Date: Mon, 22 Jul 2024 14:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 14:40:28.538965
- Title: MuTT: A Multimodal Trajectory Transformer for Robot Skills
- Title(参考訳): MuTT:ロボットスキルのための多モード軌道変換器
- Authors: Claudius Kienle, Benjamin Alt, Onur Celik, Philipp Becker, Darko Katic, Rainer Jäkel, Gerhard Neumann,
- Abstract要約: MuTTは、ロボットスキルの環境対応実行を予測するために設計された、新しいエンコーダ・デコーダ変換アーキテクチャである。
我々は、視覚と軌跡の融合を開拓し、新しい軌跡投影を導入した。
このアプローチは,現実的な実行を必要とせずに,現状環境におけるロボットスキルパラメータの最適化を容易にする。
- 参考スコア(独自算出の注目度): 14.84252843639553
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: High-level robot skills represent an increasingly popular paradigm in robot programming. However, configuring the skills' parameters for a specific task remains a manual and time-consuming endeavor. Existing approaches for learning or optimizing these parameters often require numerous real-world executions or do not work in dynamic environments. To address these challenges, we propose MuTT, a novel encoder-decoder transformer architecture designed to predict environment-aware executions of robot skills by integrating vision, trajectory, and robot skill parameters. Notably, we pioneer the fusion of vision and trajectory, introducing a novel trajectory projection. Furthermore, we illustrate MuTT's efficacy as a predictor when combined with a model-based robot skill optimizer. This approach facilitates the optimization of robot skill parameters for the current environment, without the need for real-world executions during optimization. Designed for compatibility with any representation of robot skills, MuTT demonstrates its versatility across three comprehensive experiments, showcasing superior performance across two different skill representations.
- Abstract(参考訳): 高レベルのロボットスキルは、ロボットプログラミングにおける人気のパラダイムである。
しかしながら、特定のタスクに対してスキルのパラメータを設定することは、手作業と時間を要する作業のままである。
これらのパラメータを学習したり、最適化するための既存のアプローチは、多くの実世界の実行を必要としたり、動的環境では機能しない場合が多い。
これらの課題に対処するために,視覚,軌道,ロボットスキルパラメータを統合することで,ロボットスキルの環境認識実行を予測するために設計された,新しいエンコーダ・デコーダ変換アーキテクチャである MuTT を提案する。
特に、視覚と軌跡の融合を開拓し、新しい軌跡投影を導入した。
さらに,モデルをベースとしたロボットスキルオプティマイザと組み合わせることで,MuTTの有効性を予測できることを示す。
このアプローチは,ロボットの現実的な実行を必要とせずに,現在の環境に対するロボットスキルパラメータの最適化を容易にする。
MuTTは、ロボットスキルのあらゆる表現との互換性のために設計され、3つの総合的な実験にまたがってその汎用性を実証し、2つの異なるスキル表現に対して優れたパフォーマンスを示す。
関連論文リスト
- Multi-Task Interactive Robot Fleet Learning with Visual World Models [25.001148860168477]
Sirius-Fleetはマルチタスク対話型ロボットフリートラーニングフレームワークである。
デプロイ中のロボットのパフォーマンスを監視し、必要な時にロボットの動作を修正するよう人間に要求する。
ロボットの自律性が向上するにつれて、異常予測器は予測基準に自動的に適応する。
論文 参考訳(メタデータ) (2024-10-30T04:49:39Z) - DiffGen: Robot Demonstration Generation via Differentiable Physics Simulation, Differentiable Rendering, and Vision-Language Model [72.66465487508556]
DiffGenは、微分可能な物理シミュレーション、微分可能なレンダリング、ビジョン言語モデルを統合する新しいフレームワークである。
言語命令の埋め込みとシミュレートされた観察の埋め込みとの距離を最小化することにより、現実的なロボットデモを生成することができる。
実験によると、DiffGenを使えば、人間の努力やトレーニング時間を最小限に抑えて、ロボットデータを効率よく、効果的に生成できる。
論文 参考訳(メタデータ) (2024-05-12T15:38:17Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - Using Knowledge Representation and Task Planning for Robot-agnostic
Skills on the Example of Contact-Rich Wiping Tasks [44.99833362998488]
本研究では,知識表現,タスク計画,スキル実装の自動選択を利用した単一のロボットスキルを,異なるコンテキストで実行可能であることを示す。
このスキルベースの制御プラットフォームが、異なるロボットシステム上でのコンタクトリッチなワイピングタスクでこれをどのように実現できるかを実証する。
論文 参考訳(メタデータ) (2023-08-27T21:17:32Z) - Human-Robot Skill Transfer with Enhanced Compliance via Dynamic Movement
Primitives [1.7901837062462316]
本研究では,動的運動プリミティブ(Dynamic Movement Primitives)フレームワークにおいて,人間の実演から動的特徴を抽出し,パラメータを自動チューニングする体系的手法を提案する。
本手法は,LfDとRLの両方に追従するロボット軌道を再現するために,人間の動的特徴を抽出するための実際のロボット装置に実装した。
論文 参考訳(メタデータ) (2023-04-12T08:48:28Z) - GLSO: Grammar-guided Latent Space Optimization for Sample-efficient
Robot Design Automation [16.96128900256427]
設計自動化を低次元連続最適化問題に変換するフレームワークであるGrammar-Guided Latent Space Optimization (GLSO)を提案する。
本研究では,グラフ構造設計空間と連続潜在空間とのマッピングを学習するために,グラフ変分オートエンコーダ(VAE)を訓練することにより,設計自動化を低次元連続最適化問題に変換するフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-23T17:48:24Z) - A Capability and Skill Model for Heterogeneous Autonomous Robots [69.50862982117127]
機能モデリングは、異なるマシンが提供する機能を意味的にモデル化するための有望なアプローチと考えられている。
この貢献は、製造から自律ロボットの分野への能力モデルの適用と拡張の仕方について考察する。
論文 参考訳(メタデータ) (2022-09-22T10:13:55Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Robot Skill Adaptation via Soft Actor-Critic Gaussian Mixture Models [29.34375999491465]
現実の世界で行動する自律的エージェントにとっての中核的な課題は、その騒々しい知覚とダイナミクスに対処するために、そのスキルのレパートリーを適応させることである。
ロングホライズンタスクにスキルの学習を拡大するためには、ロボットは学習し、その後、構造化された方法でスキルを洗練する必要がある。
SAC-GMMは,動的システムを通じてロボットのスキルを学習し,学習したスキルを自身の軌道分布空間に適応させる,新しいハイブリッドアプローチである。
論文 参考訳(メタデータ) (2021-11-25T15:36:11Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。