論文の概要: Learning Stable Vector Fields on Lie Groups
- arxiv url: http://arxiv.org/abs/2110.11774v1
- Date: Fri, 22 Oct 2021 13:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 20:51:47.540451
- Title: Learning Stable Vector Fields on Lie Groups
- Title(参考訳): リー群上の安定ベクトル場を学ぶ
- Authors: Julen Urain, Davide Tateo and Jan Peters
- Abstract要約: デモからロボットの動きを学ぶには、完全なロボットのポーズのためにベクトル場を表現できるモデルが必要である。
反応運動生成の最近の進歩は、適応性、反応性、滑らか、安定なベクトル場を学ぶことができることを示している。
従来の手法のほとんどの特性を保証できる新しいベクトル場モデルを提案する。
- 参考スコア(独自算出の注目度): 27.10407648616855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning robot motions from demonstration requires having models that are
able to represent vector fields for the full robot pose when the task is
defined in operational space. Recent advances in reactive motion generation
have shown that it is possible to learn adaptive, reactive, smooth, and stable
vector fields. However, these approaches define a vector field on a flat
Euclidean manifold, while representing vector fields for orientations required
to model the dynamics in non-Euclidean manifolds, such as Lie Groups. In this
paper, we present a novel vector field model that can guarantee most of the
properties of previous approaches i.e., stability, smoothness, and reactivity
beyond the Euclidean space. In the experimental evaluation, we show the
performance of our proposed vector field model to learn stable vector fields
for full robot poses as SE(2) and SE(3) in both simulated and real robotics
tasks.
- Abstract(参考訳): デモからロボットの動きを学習するには、作業空間でタスクが定義されたときに、ロボット全体のポーズのベクトルフィールドを表現できるモデルが必要である。
反応運動生成の最近の進歩は、適応性、反応性、滑らか、安定なベクトル場を学ぶことができることを示している。
しかし、これらのアプローチは平面ユークリッド多様体上のベクトル場を定義し、リー群のような非ユークリッド多様体の動力学をモデル化するために必要な向きのベクトル場を表現している。
本稿では,従来のアプローチ,すなわち安定性,滑らかさ,およびユークリッド空間を超えた反応性のほとんどを保証できる新しいベクトル場モデルを提案する。
実験評価では,提案するベクトル場モデルを用いて,シミュレーションと実ロボット作業の両方において,完全ロボットポーズの安定ベクトル場をse(2),se(3)として学習する性能を示す。
関連論文リスト
- An Intrinsic Vector Heat Network [64.55434397799728]
本稿では,3次元に埋め込まれた接ベクトル場を学習するためのニューラルネットワークアーキテクチャを提案する。
本研究では, ベクトル値の特徴データを空間的に伝播させるために, トレーニング可能なベクトル熱拡散モジュールを提案する。
また,四面体メッシュ生成の産業的有用性に対する本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-14T00:40:31Z) - Intrinsic Gaussian Vector Fields on Manifolds [40.20536208199638]
得られたホッジ・マタン・ガウスベクトル場を二次元球面とハイパートーラス上に展開するのに必要となるプリミティブを提供する。
ガウスベクトル場は、前述した外生的場よりもかなり洗練された帰納的バイアスを構成することを示す。
論文 参考訳(メタデータ) (2023-10-28T21:17:36Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Learning Riemannian Stable Dynamical Systems via Diffeomorphisms [0.23204178451683263]
有害で自律的なロボットは、精巧な動的動作を巧みに実行できなければならない。
学習技術は、このようなダイナミックスキルのモデルを構築するために利用することができる。
これを実現するために、学習モデルは、所望の運動力学に類似した安定したベクトル場を符号化する必要がある。
論文 参考訳(メタデータ) (2022-11-06T16:28:45Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - Conditional Neural Relational Inference for Interacting Systems [58.141087282927415]
我々は、類似しているが異なる相互作用するオブジェクトのグループのダイナミクスをモデル化することを学ぶ。
ベクトル記述から任意の群から条件生成が可能なモデルを開発する。
我々は,ヒト歩行のモデル化と,特に病理的ヒト歩行のモデル化におけるモデルの評価を行った。
論文 参考訳(メタデータ) (2021-06-21T13:05:48Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - A Differential Geometry Perspective on Orthogonal Recurrent Models [56.09491978954866]
我々は微分幾何学からのツールと洞察を用いて、直交rnnの新しい視点を提供する。
直交RNNは、発散自由ベクトル場の空間における最適化と見なすことができる。
この観測に動機づけられて、ベクトル場全体の空間にまたがる新しいリカレントモデルの研究を行う。
論文 参考訳(メタデータ) (2021-02-18T19:39:22Z) - InMoDeGAN: Interpretable Motion Decomposition Generative Adversarial
Network for Video Generation [11.247580943940916]
非条件のビデオ生成モデルであるInMoDeGANは(a)高品質なビデオを生成する。
生成したサンプルの制御を可能にするセマンティックなサブスペースにモーションを分解します。
論文 参考訳(メタデータ) (2021-01-08T15:02:28Z) - Semi-supervised Grasp Detection by Representation Learning in a Vector
Quantized Latent Space [1.3048920509133808]
本稿では,半教師付き学習に基づく把握検出手法を提案する。
我々の知る限りでは、変分オートエンコーダ(VAE)がロボットグリップ検出の分野に応用されたのはこれが初めてである。
このモデルでは、未ラベル画像を使用しない既存の手法に比べて、グリップを改善するために大幅に性能が向上する。
論文 参考訳(メタデータ) (2020-01-23T12:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。