論文の概要: Reactive Motion Generation on Learned Riemannian Manifolds
- arxiv url: http://arxiv.org/abs/2203.07761v1
- Date: Tue, 15 Mar 2022 10:28:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 15:08:13.076526
- Title: Reactive Motion Generation on Learned Riemannian Manifolds
- Title(参考訳): 学習リーマン多様体上の反応性運動の生成
- Authors: Hadi Beik-Mohammadi, S{\o}ren Hauberg, Georgios Arvanitidis, Gerhard
Neumann, Leonel Rozo
- Abstract要約: 人間の操作者が示す複雑な動作パターンに基づいて動作スキルを生成する方法を示す。
そこで本研究では,学習多様体を変形させることにより,オンザフライのエンドエフェクタ/マルチランブ障害物回避を容易にする手法を提案する。
7-DoFロボットマニピュレータを用いて,タスク空間と関節空間のシナリオにおいて,我々のアプローチを広範囲に検証した。
- 参考スコア(独自算出の注目度): 15.592172593532146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent decades, advancements in motion learning have enabled robots to
acquire new skills and adapt to unseen conditions in both structured and
unstructured environments. In practice, motion learning methods capture
relevant patterns and adjust them to new conditions such as dynamic obstacle
avoidance or variable targets. In this paper, we investigate the robot motion
learning paradigm from a Riemannian manifold perspective. We argue that
Riemannian manifolds may be learned via human demonstrations in which geodesics
are natural motion skills. The geodesics are generated using a learned
Riemannian metric produced by our novel variational autoencoder (VAE), which is
especially intended to recover full-pose end-effector states and joint space
configurations. In addition, we propose a technique for facilitating on-the-fly
end-effector/multiple-limb obstacle avoidance by reshaping the learned manifold
using an obstacle-aware ambient metric. The motion generated using these
geodesics may naturally result in multiple-solution tasks that have not been
explicitly demonstrated previously. We extensively tested our approach in task
space and joint space scenarios using a 7-DoF robotic manipulator. We
demonstrate that our method is capable of learning and generating motion skills
based on complicated motion patterns demonstrated by a human operator.
Additionally, we assess several obstacle avoidance strategies and generate
trajectories in multiple-mode settings.
- Abstract(参考訳): 近年、モーション学習の進歩により、ロボットは新しいスキルを習得し、構造化された環境と非構造化された環境の両方で目に見えない状況に適応できるようになった。
実際に、動作学習法は関連するパターンを捕捉し、動的障害物回避や可変目標などの新しい条件に調整する。
本稿では,リーマン多様体の観点からロボットの動き学習パラダイムを考察する。
リーマン多様体は、測地学が自然な運動スキルである人間のデモンストレーションを通して学べる。
測地学は、新しい変分オートエンコーダ(VAE)によって生成された学習されたリーマン計量を用いて生成される。
さらに,障害物を考慮した環境メトリクスを用いて学習多様体を再構成することにより,オンザフライ・エンドエフェクタ/マルチランブ障害物回避を容易にする手法を提案する。
これらの測地線を用いて生成された運動は、以前は明らかに示されていなかった多重解法タスクを自然に引き起こす可能性がある。
我々は7自由度ロボットマニピュレータを用いてタスクスペースとジョイントスペースのシナリオでこのアプローチを広範囲にテストした。
本研究では,人間の操作者が示す複雑な動作パターンに基づいて,動作スキルを学習し,生成することができることを示す。
さらに,複数の障害物回避戦略を評価し,複数モード設定で軌道を生成する。
関連論文リスト
- Guided Decoding for Robot On-line Motion Generation and Adaption [44.959409835754634]
本稿では,ロボットアームに高い自由度を持つ新たな動作生成手法を提案する。
本研究では,実演として使用する擬似軌道の大規模データセットに基づいて,条件付き変分オートエンコーダに基づくトランスフォーマーアーキテクチャを訓練する。
本モデルでは, 異なる初期点と目標点からの運動をうまく生成し, 異なるロボットプラットフォームを横断する複雑なタスクをナビゲートする軌道を生成可能であることを示す。
論文 参考訳(メタデータ) (2024-03-22T14:32:27Z) - FLD: Fourier Latent Dynamics for Structured Motion Representation and
Learning [19.491968038335944]
本研究では,周期的・準周期的な動きの時空間関係を抽出する自己教師付き構造表現生成手法を提案する。
我々の研究は、一般的な動き表現と学習アルゴリズムの今後の進歩への新たな可能性を開く。
論文 参考訳(メタデータ) (2024-02-21T13:59:21Z) - Learning Riemannian Stable Dynamical Systems via Diffeomorphisms [0.23204178451683263]
有害で自律的なロボットは、精巧な動的動作を巧みに実行できなければならない。
学習技術は、このようなダイナミックスキルのモデルを構築するために利用することができる。
これを実現するために、学習モデルは、所望の運動力学に類似した安定したベクトル場を符号化する必要がある。
論文 参考訳(メタデータ) (2022-11-06T16:28:45Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Next Steps: Learning a Disentangled Gait Representation for Versatile
Quadruped Locomotion [69.87112582900363]
現在のプランナーは、ロボットが動いている間、キー歩行パラメータを連続的に変更することはできない。
本研究では、特定の歩行を構成する重要な姿勢位相を捉える潜在空間を学習することにより、この制限に対処する。
本研究では, 歩幅, 歩幅, 立位など, 歩行パラメータに直接対応した駆動信号マップの具体的特性を示す。
論文 参考訳(メタデータ) (2021-12-09T10:02:02Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Learning Riemannian Manifolds for Geodesic Motion Skills [19.305285090233063]
ロボットが新しいスキルを習得し、目に見えない状況に適応するための学習フレームワークを開発する。
本研究では,測地運動技術を用いて,データ多様体上の任意の地点をロボットがどう移動させるかを示す。
ロボットは、精巧な動きパターンを特徴とする現実的なスキルを十分に学習し、再現する7-DoFロボットマニピュレータを用いて、学習フレームワークをテストする。
論文 参考訳(メタデータ) (2021-06-08T13:24:54Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。