論文の概要: Initialization of Latent Space Coordinates via Random Linear Projections
for Learning Robotic Sensory-Motor Sequences
- arxiv url: http://arxiv.org/abs/2202.13057v1
- Date: Sat, 26 Feb 2022 04:32:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 12:05:29.595690
- Title: Initialization of Latent Space Coordinates via Random Linear Projections
for Learning Robotic Sensory-Motor Sequences
- Title(参考訳): ロボット感覚運動系列学習のためのランダム線形射影による潜在空間座標の初期化
- Authors: Vsevolod Nikulin and Jun Tani
- Abstract要約: 低次元空間への運動列のランダムな線形射影は、運動学データの構造に関する情報をほとんど失わないことを示す。
そこで我々は,9自由度ロボットマニピュレータのセンサ・モーター・シーケンスを生成するために,リカレントニューラルネットワークを訓練した。
- 参考スコア(独自算出の注目度): 5.000272778136268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robot kinematics data, despite being a high dimensional process, is highly
correlated, especially when considering motions grouped in certain primitives.
These almost linear correlations within primitives allow us to interpret the
motions as points drawn close to a union of low-dimensional linear subspaces in
the space of all motions. Motivated by results of embedding theory, in
particular, generalizations of Whitney embedding theorem, we show that random
linear projection of motor sequences into low dimensional space loses very
little information about structure of kinematics data. Projected points are
very good initial guess for values of latent variables in generative model for
robot sensory-motor behaviour primitives. We conducted series of experiments
where we trained a recurrent neural network to generate sensory-motor sequences
for robotic manipulator with 9 degrees of freedom. Experimental results
demonstrate substantial improvement in generalisation abilities for unobserved
samples in the case of initialization of latent variables with random linear
projection of motor data over initialization with zero or random values.
Moreover, latent space is well-structured wherein samples belonging to
different primitives are well separated from the onset of training process.
- Abstract(参考訳): ロボットの運動データは、高次元のプロセスであるにもかかわらず、特に特定の原始群に群がった動きを考えるとき、高い相関性を持つ。
これらの原始空間内のほぼ線形相関は、全ての運動の空間における低次元線型部分空間の和に近い点として運動を解釈することができる。
埋め込み理論の結果、特にホイットニー埋め込み定理の一般化により、低次元空間への運動列のランダムな線形射影がキネマティックスデータの構造に関するほとんど情報を失うことを示す。
ロボット感覚運動プリミティブの生成モデルにおける潜伏変数の値について、投影された点は、非常によい初期推定である。
そこで我々は,9自由度ロボットマニピュレータのセンサ・モーター・シーケンスを生成するために,リカレントニューラルネットワークを訓練した。
実験結果から,0値あるいはランダム値の初期化によるモータデータのランダム線形投影による潜伏変数の初期化において,未観測試料の一般化能力は著しく向上した。
さらに、遅延空間は、異なるプリミティブに属するサンプルがトレーニングプロセスの開始から適切に分離されるように構造化されている。
関連論文リスト
- Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - Modeling Multi-Step Scientific Processes with Graph Transformer Networks [0.0]
回帰タスクに対する幾何学習の有効性は線形モデルの集合に対してベンチマークされた。
グラフトランスフォーマーネットワークは、プロセスステップとシーケンス依存機能の間の隠れた相互作用を特徴とするシナリオにおいて、すべてのテストされた線形モデルを上回った。
論文 参考訳(メタデータ) (2024-08-10T04:03:51Z) - Minimum-Norm Interpolation Under Covariate Shift [14.863831433459902]
高次元線形回帰に関する非分布研究は、テキシトベニンオーバーフィッティング(textitbenign overfitting)として知られる現象の同定につながった。
本稿では,移動学習環境における線形補間器の非漸近的過剰リスク境界を初めて証明する。
論文 参考訳(メタデータ) (2024-03-31T01:41:57Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Constructing interpretable principal curve using Neural ODEs [0.2900810893770134]
動的に空間を特徴付けることのできるフレームワークを開発する。
主流れは粒子の運動を誘導し、粒子の軌道はデータセットの主曲線に似ている。
このフレームワークは, 様々な複雑度の形状を特徴付けるのに有効であり, 緩和力学の要約を組み込むには柔軟であることを示す。
論文 参考訳(メタデータ) (2023-11-15T16:46:53Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Identifying nonlinear dynamical systems from multi-modal time series
data [3.721528851694675]
物理学、生物学、医学における経験的に観察された時系列は、一般的に、基礎となる力学系(DS)によって生成される。
完全にデータ駆動で教師なしの方法で、この潜伏するDSを再構築するための機械学習手法の収集への関心が高まっている。
本稿では,非線形DS識別とクロスモーダル予測を目的としたマルチモーダルデータ統合のための汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-04T14:59:28Z) - Model discovery in the sparse sampling regime [0.0]
深層学習が部分微分方程式のモデル発見をいかに改善できるかを示す。
その結果、ディープラーニングに基づくモデル発見は、基礎となる方程式を復元することができる。
我々は合成集合と実験集合の両方について主張する。
論文 参考訳(メタデータ) (2021-05-02T06:27:05Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。