論文の概要: Learning Riemannian Manifolds for Geodesic Motion Skills
- arxiv url: http://arxiv.org/abs/2106.04315v1
- Date: Tue, 8 Jun 2021 13:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:08:35.661693
- Title: Learning Riemannian Manifolds for Geodesic Motion Skills
- Title(参考訳): 測地運動スキルのためのリーマン多様体の学習
- Authors: Hadi Beik-Mohammadi, S{\o}ren Hauberg, Georgios Arvanitidis, Gerhard
Neumann and Leonel Rozo
- Abstract要約: ロボットが新しいスキルを習得し、目に見えない状況に適応するための学習フレームワークを開発する。
本研究では,測地運動技術を用いて,データ多様体上の任意の地点をロボットがどう移動させるかを示す。
ロボットは、精巧な動きパターンを特徴とする現実的なスキルを十分に学習し、再現する7-DoFロボットマニピュレータを用いて、学習フレームワークをテストする。
- 参考スコア(独自算出の注目度): 19.305285090233063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For robots to work alongside humans and perform in unstructured environments,
they must learn new motion skills and adapt them to unseen situations on the
fly. This demands learning models that capture relevant motion patterns, while
offering enough flexibility to adapt the encoded skills to new requirements,
such as dynamic obstacle avoidance. We introduce a Riemannian manifold
perspective on this problem, and propose to learn a Riemannian manifold from
human demonstrations on which geodesics are natural motion skills. We realize
this with a variational autoencoder (VAE) over the space of position and
orientations of the robot end-effector. Geodesic motion skills let a robot plan
movements from and to arbitrary points on the data manifold. They also provide
a straightforward method to avoid obstacles by redefining the ambient metric in
an online fashion. Moreover, geodesics naturally exploit the manifold resulting
from multiple--mode tasks to design motions that were not explicitly
demonstrated previously. We test our learning framework using a 7-DoF robotic
manipulator, where the robot satisfactorily learns and reproduces realistic
skills featuring elaborated motion patterns, avoids previously unseen
obstacles, and generates novel movements in multiple-mode settings.
- Abstract(参考訳): ロボットが人間と一緒に働き、非構造化環境で行動するためには、新しい動きのスキルを学び、目に見えない状況に適応する必要がある。
これにより、関連する動きパターンをキャプチャする学習モデルが必要となり、動的障害回避など、エンコードされたスキルを新たな要件に適応させるのに十分な柔軟性が提供される。
本稿では,この問題に対するリーマン多様体の視点を紹介し,測地線が自然な運動スキルである人間の実演からリーマン多様体を学ぶことを提案する。
我々は,ロボットのエンドエフェクタの位置と方向の空間上の変分オートエンコーダ(vae)を用いてこれを実現する。
測地運動スキルにより、ロボットはデータ多様体上の任意の点から移動を計画できる。
また、オンライン方式で環境メトリクスを再定義することで、障害を避けるための簡単な方法も提供する。
さらに、測地学は自然に多重モードのタスクから生じる多様体を利用して、以前に明示的には示されていなかった動きを設計する。
ロボットは、精巧な動作パターンを特徴とする現実的なスキルを十分に学習し、再現し、以前は目に見えなかった障害物を回避し、複数モード設定で新しい動きを生成する。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Guided Decoding for Robot On-line Motion Generation and Adaption [44.959409835754634]
本稿では,ロボットアームに高い自由度を持つ新たな動作生成手法を提案する。
本研究では,実演として使用する擬似軌道の大規模データセットに基づいて,条件付き変分オートエンコーダに基づくトランスフォーマーアーキテクチャを訓練する。
本モデルでは, 異なる初期点と目標点からの運動をうまく生成し, 異なるロボットプラットフォームを横断する複雑なタスクをナビゲートする軌道を生成可能であることを示す。
論文 参考訳(メタデータ) (2024-03-22T14:32:27Z) - InsActor: Instruction-driven Physics-based Characters [65.4702927454252]
本稿では,物理系文字の命令駆動型アニメーションを生成する,原理的生成フレームワークを提案する。
我々のフレームワークは、InsActorに高レベルな人間の指示とキャラクターの動きの間の複雑な関係をキャプチャする権限を与える。
InsActorは、命令駆動のモーション生成や命令駆動のウェイポイント誘導など、様々なタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-28T17:10:31Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Learning Riemannian Stable Dynamical Systems via Diffeomorphisms [0.23204178451683263]
有害で自律的なロボットは、精巧な動的動作を巧みに実行できなければならない。
学習技術は、このようなダイナミックスキルのモデルを構築するために利用することができる。
これを実現するために、学習モデルは、所望の運動力学に類似した安定したベクトル場を符号化する必要がある。
論文 参考訳(メタデータ) (2022-11-06T16:28:45Z) - Automatic Acquisition of a Repertoire of Diverse Grasping Trajectories
through Behavior Shaping and Novelty Search [0.0]
この問題を解決するために,多様な把握動作を生成する手法を提案する。
運動は、特定の対象位置に対するシミュレーションで生成される。
生成した動きが実際のバクスターロボットで実際に動作することを示すが、目的は、この手法を用いて大規模なデータセットを作成し、ディープラーニング手法をブートストラップすることである。
論文 参考訳(メタデータ) (2022-05-17T09:17:31Z) - Reactive Motion Generation on Learned Riemannian Manifolds [14.325005233326497]
人間の操作者が示す複雑な動作パターンに基づいて動作スキルを生成する方法を示す。
そこで本研究では,学習多様体を変形させることにより,オンザフライのエンドエフェクタ/マルチランブ障害物回避を容易にする手法を提案する。
7-DoFロボットマニピュレータを用いて,タスク空間と関節空間のシナリオにおいて,我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2022-03-15T10:28:16Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。