論文の概要: Guided Decoding for Robot Motion Generation and Adaption
- arxiv url: http://arxiv.org/abs/2403.15239v1
- Date: Fri, 22 Mar 2024 14:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 17:09:34.197840
- Title: Guided Decoding for Robot Motion Generation and Adaption
- Title(参考訳): ロボット運動生成と適応のためのガイドデコード
- Authors: Nutan Chen, Elie Aljalbout, Botond Cseke, Patrick van der Smagt,
- Abstract要約: 障害のある複雑な環境でのハイDoFロボットアームの動作生成,ポイント経由などについて検討する。
シミュレーショントラジェクトリの大規模なデータセット上にトランスフォーマーアーキテクチャをトレーニングする。
我々のモデルでは,初期点と目標点から運動を生成できるだけでなく,複雑なタスクをナビゲートする際に軌道に適応できる。
- 参考スコア(独自算出の注目度): 8.299692647308321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address motion generation for high-DoF robot arms in complex settings with obstacles, via points, etc. A significant advancement in this domain is achieved by integrating Learning from Demonstration (LfD) into the motion generation process. This integration facilitates rapid adaptation to new tasks and optimizes the utilization of accumulated expertise by allowing robots to learn and generalize from demonstrated trajectories. We train a transformer architecture on a large dataset of simulated trajectories. This architecture, based on a conditional variational autoencoder transformer, learns essential motion generation skills and adapts these to meet auxiliary tasks and constraints. Our auto-regressive approach enables real-time integration of feedback from the physical system, enhancing the adaptability and efficiency of motion generation. We show that our model can generate motion from initial and target points, but also that it can adapt trajectories in navigating complex tasks, including obstacle avoidance, via points, and meeting velocity and acceleration constraints, across platforms.
- Abstract(参考訳): 障害のある複雑な環境でのハイDoFロボットアームの動作生成,ポイント経由などについて検討する。
この領域の大幅な進歩は、LfD(Learning from Demonstration)をモーション生成プロセスに統合することで達成される。
この統合は、新しいタスクへの迅速な適応を促進し、実証された軌道からロボットが学習し、一般化できるようにすることで、蓄積された専門知識の利用を最適化する。
シミュレーショントラジェクトリの大規模なデータセット上にトランスフォーマーアーキテクチャをトレーニングする。
このアーキテクチャは、条件付き変分オートエンコーダ変換器に基づいて、必須動作生成スキルを学び、これらを補助的なタスクや制約に適合させる。
我々の自己回帰的アプローチは、物理システムからのフィードバックをリアルタイムに統合し、運動生成の適応性と効率を高める。
このモデルでは,初期点と目標点から運動を生成できるだけでなく,障害物回避,地点経由の障害物回避,プラットフォーム間の速度と加速度の制約といった複雑なタスクに軌道を適応できることを示す。
関連論文リスト
- FLD: Fourier Latent Dynamics for Structured Motion Representation and
Learning [19.491968038335944]
本研究では,周期的・準周期的な動きの時空間関係を抽出する自己教師付き構造表現生成手法を提案する。
我々の研究は、一般的な動き表現と学習アルゴリズムの今後の進歩への新たな可能性を開く。
論文 参考訳(メタデータ) (2024-02-21T13:59:21Z) - TrackDiffusion: Tracklet-Conditioned Video Generation via Diffusion Models [75.20168902300166]
微粒な軌跡条件の運動制御が可能な新しい映像生成フレームワークであるTrackDiffusionを提案する。
TrackDiffusionの重要なコンポーネントは、複数のオブジェクトのフレーム間の一貫性を明確に保証するインスタンスエンハンサーである。
TrackDiffusionによって生成されたビデオシーケンスは、視覚知覚モデルのトレーニングデータとして使用できる。
論文 参考訳(メタデータ) (2023-12-01T15:24:38Z) - Controllable Motion Diffusion Model [59.52889433954535]
制御可能な運動拡散モデル(COMODO)の枠組みを提案する。
我々のフレームワークは自動回帰運動拡散モデル(A-MDM)から始まり、ステップごとに動きのシーケンスを生成する。
そこで本研究では,A-MDMモデル上での強化学習に基づく制御手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Unified Control Framework for Real-Time Interception and Obstacle Avoidance of Fast-Moving Objects with Diffusion Variational Autoencoder [2.5642257132861923]
動的環境におけるロボットアームによる高速移動物体のリアルタイムインターセプションは、非常に困難な課題である。
本稿では,動的オブジェクトを同時にインターセプトし,移動障害を回避することで,課題に対処する統一的な制御フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-27T18:46:52Z) - Consolidating Kinematic Models to Promote Coordinated Mobile
Manipulations [96.03270112422514]
我々は,移動体ベース,アーム,移動体操作で操作する物体の運動学を統合する仮想キネマティックチェイン(VKC)を構築した。
移動操作タスクは、構築されたVKCの状態を変更して表現され、移動計画問題に変換することができる。
論文 参考訳(メタデータ) (2021-08-03T02:59:41Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。