論文の概要: Learning Riemannian Manifolds for Geodesic Motion Skills
- arxiv url: http://arxiv.org/abs/2106.04315v1
- Date: Tue, 8 Jun 2021 13:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:08:35.661693
- Title: Learning Riemannian Manifolds for Geodesic Motion Skills
- Title(参考訳): 測地運動スキルのためのリーマン多様体の学習
- Authors: Hadi Beik-Mohammadi, S{\o}ren Hauberg, Georgios Arvanitidis, Gerhard
Neumann and Leonel Rozo
- Abstract要約: ロボットが新しいスキルを習得し、目に見えない状況に適応するための学習フレームワークを開発する。
本研究では,測地運動技術を用いて,データ多様体上の任意の地点をロボットがどう移動させるかを示す。
ロボットは、精巧な動きパターンを特徴とする現実的なスキルを十分に学習し、再現する7-DoFロボットマニピュレータを用いて、学習フレームワークをテストする。
- 参考スコア(独自算出の注目度): 19.305285090233063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For robots to work alongside humans and perform in unstructured environments,
they must learn new motion skills and adapt them to unseen situations on the
fly. This demands learning models that capture relevant motion patterns, while
offering enough flexibility to adapt the encoded skills to new requirements,
such as dynamic obstacle avoidance. We introduce a Riemannian manifold
perspective on this problem, and propose to learn a Riemannian manifold from
human demonstrations on which geodesics are natural motion skills. We realize
this with a variational autoencoder (VAE) over the space of position and
orientations of the robot end-effector. Geodesic motion skills let a robot plan
movements from and to arbitrary points on the data manifold. They also provide
a straightforward method to avoid obstacles by redefining the ambient metric in
an online fashion. Moreover, geodesics naturally exploit the manifold resulting
from multiple--mode tasks to design motions that were not explicitly
demonstrated previously. We test our learning framework using a 7-DoF robotic
manipulator, where the robot satisfactorily learns and reproduces realistic
skills featuring elaborated motion patterns, avoids previously unseen
obstacles, and generates novel movements in multiple-mode settings.
- Abstract(参考訳): ロボットが人間と一緒に働き、非構造化環境で行動するためには、新しい動きのスキルを学び、目に見えない状況に適応する必要がある。
これにより、関連する動きパターンをキャプチャする学習モデルが必要となり、動的障害回避など、エンコードされたスキルを新たな要件に適応させるのに十分な柔軟性が提供される。
本稿では,この問題に対するリーマン多様体の視点を紹介し,測地線が自然な運動スキルである人間の実演からリーマン多様体を学ぶことを提案する。
我々は,ロボットのエンドエフェクタの位置と方向の空間上の変分オートエンコーダ(vae)を用いてこれを実現する。
測地運動スキルにより、ロボットはデータ多様体上の任意の点から移動を計画できる。
また、オンライン方式で環境メトリクスを再定義することで、障害を避けるための簡単な方法も提供する。
さらに、測地学は自然に多重モードのタスクから生じる多様体を利用して、以前に明示的には示されていなかった動きを設計する。
ロボットは、精巧な動作パターンを特徴とする現実的なスキルを十分に学習し、再現し、以前は目に見えなかった障害物を回避し、複数モード設定で新しい動きを生成する。
関連論文リスト
- InsActor: Instruction-driven Physics-based Characters [65.4702927454252]
本稿では,物理系文字の命令駆動型アニメーションを生成する,原理的生成フレームワークを提案する。
我々のフレームワークは、InsActorに高レベルな人間の指示とキャラクターの動きの間の複雑な関係をキャプチャする権限を与える。
InsActorは、命令駆動のモーション生成や命令駆動のウェイポイント誘導など、様々なタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-28T17:10:31Z) - Universal Humanoid Motion Representations for Physics-Based Control [74.53927919796139]
本稿では、ヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現について述べる。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Learning Riemannian Stable Dynamical Systems via Diffeomorphisms [0.23204178451683263]
有害で自律的なロボットは、精巧な動的動作を巧みに実行できなければならない。
学習技術は、このようなダイナミックスキルのモデルを構築するために利用することができる。
これを実現するために、学習モデルは、所望の運動力学に類似した安定したベクトル場を符号化する必要がある。
論文 参考訳(メタデータ) (2022-11-06T16:28:45Z) - Automatic Acquisition of a Repertoire of Diverse Grasping Trajectories
through Behavior Shaping and Novelty Search [0.0]
この問題を解決するために,多様な把握動作を生成する手法を提案する。
運動は、特定の対象位置に対するシミュレーションで生成される。
生成した動きが実際のバクスターロボットで実際に動作することを示すが、目的は、この手法を用いて大規模なデータセットを作成し、ディープラーニング手法をブートストラップすることである。
論文 参考訳(メタデータ) (2022-05-17T09:17:31Z) - Reactive Motion Generation on Learned Riemannian Manifolds [14.325005233326497]
人間の操作者が示す複雑な動作パターンに基づいて動作スキルを生成する方法を示す。
そこで本研究では,学習多様体を変形させることにより,オンザフライのエンドエフェクタ/マルチランブ障害物回避を容易にする手法を提案する。
7-DoFロボットマニピュレータを用いて,タスク空間と関節空間のシナリオにおいて,我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2022-03-15T10:28:16Z) - Next Steps: Learning a Disentangled Gait Representation for Versatile
Quadruped Locomotion [69.87112582900363]
現在のプランナーは、ロボットが動いている間、キー歩行パラメータを連続的に変更することはできない。
本研究では、特定の歩行を構成する重要な姿勢位相を捉える潜在空間を学習することにより、この制限に対処する。
本研究では, 歩幅, 歩幅, 立位など, 歩行パラメータに直接対応した駆動信号マップの具体的特性を示す。
論文 参考訳(メタデータ) (2021-12-09T10:02:02Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - An Adaptable Approach to Learn Realistic Legged Locomotion without
Examples [38.81854337592694]
本研究は,バネ装荷逆振り子モデルを用いて学習プロセスを導くことで,移動における現実性を保証するための汎用的アプローチを提案する。
モデルのない設定であっても、2足歩行ロボットと4足歩行ロボットに対して、学習したポリシーが現実的でエネルギー効率のよい移動歩行を生成できることを示す実験結果を示す。
論文 参考訳(メタデータ) (2021-10-28T10:14:47Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。