論文の概要: Action-Conditional Recurrent Kalman Networks For Forward and Inverse
Dynamics Learning
- arxiv url: http://arxiv.org/abs/2010.10201v2
- Date: Thu, 5 Nov 2020 20:58:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 07:47:38.039819
- Title: Action-Conditional Recurrent Kalman Networks For Forward and Inverse
Dynamics Learning
- Title(参考訳): フォワードおよび逆ダイナミクス学習のための行動条件リカレントカルマンネットワーク
- Authors: Vaisakh Shaj, Philipp Becker, Dieter Buchler, Harit Pandya, Niels van
Duijkeren, C. James Taylor, Marc Hanheide, Gerhard Neumann
- Abstract要約: ロボットのモデルベース制御において、正確な前方および逆ダイナミクスモデルの推定が重要な要素である。
本稿では,フォワードモデル学習のためのアーキテクチャと,逆モデル学習のためのアーキテクチャを提案する。
どちらのアーキテクチャも、予測性能の点で、既存のモデル学習フレームワークと分析モデルを大きく上回っている。
- 参考スコア(独自算出の注目度): 17.80270555749689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating accurate forward and inverse dynamics models is a crucial
component of model-based control for sophisticated robots such as robots driven
by hydraulics, artificial muscles, or robots dealing with different contact
situations. Analytic models to such processes are often unavailable or
inaccurate due to complex hysteresis effects, unmodelled friction and stiction
phenomena,and unknown effects during contact situations. A promising approach
is to obtain spatio-temporal models in a data-driven way using recurrent neural
networks, as they can overcome those issues. However, such models often do not
meet accuracy demands sufficiently, degenerate in performance for the required
high sampling frequencies and cannot provide uncertainty estimates. We adopt a
recent probabilistic recurrent neural network architecture, called Re-current
Kalman Networks (RKNs), to model learning by conditioning its transition
dynamics on the control actions. RKNs outperform standard recurrent networks
such as LSTMs on many state estimation tasks. Inspired by Kalman filters, the
RKN provides an elegant way to achieve action conditioning within its recurrent
cell by leveraging additive interactions between the current latent state and
the action variables. We present two architectures, one for forward model
learning and one for inverse model learning. Both architectures significantly
outperform exist-ing model learning frameworks as well as analytical models in
terms of prediction performance on a variety of real robot dynamics models.
- Abstract(参考訳): 正確な前方および逆ダイナミクスモデルの推定は、油圧によって駆動されるロボット、人工筋肉、異なる接触状況を扱うロボットなどの高度なロボットに対するモデルベース制御の重要な要素である。
このような過程に対する分析モデルは、複雑なヒステリシス効果、非モデル化摩擦、スティクション現象、接触状況における未知の効果のためにしばしば使用できないか不正確である。
有望なアプローチは、リカレントニューラルネットワークを使用してデータ駆動方式で時空間モデルを得ることである。
しかし、そのようなモデルは精度の要求を十分に満たさないことが多く、必要な高いサンプリング周波数の性能が低下し、不確実性の推定ができない。
我々は,最近の確率的再帰的ニューラルネットワークアーキテクチャであるre-current kalman networks (rkns) を用いて,制御行動の遷移ダイナミクスを条件付けしてモデル学習を行う。
RKNは、多くの状態推定タスクにおいてLSTMのような標準のリカレントネットワークより優れている。
kalmanフィルタにインスパイアされたrknは、現在の潜在状態とアクション変数との付加的な相互作用を利用して、リカレントセル内のアクションコンディショニングを実現するエレガントな方法を提供する。
我々は,フォワードモデル学習と逆モデル学習の2つのアーキテクチャを提案する。
どちらのアーキテクチャも、さまざまな実際のロボットダイナミクスモデルにおける予測性能の観点から、モデル学習フレームワークや分析モデルよりも大幅に優れています。
関連論文リスト
- Learning-based adaption of robotic friction models [48.453527255659296]
我々は、可能な限り少ないデータを用いて、既存の摩擦モデルを新しいダイナミクスに適用するための新しいアプローチを導入する。
提案する推定器は,従来のモデルベースアプローチとベースニューラルネットワークを著しく上回る性能を示した。
本手法はトレーニング中に外部負荷を伴うデータに依存しないため,外部トルクセンサは不要である。
論文 参考訳(メタデータ) (2023-10-25T14:50:15Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Do We Need an Encoder-Decoder to Model Dynamical Systems on Networks? [18.92828441607381]
埋め込みは観察によく適合するが、同時に誤った動的挙動を持つモデルを誘導することを示す。
2つの加法的ベクトル場成分をパラメトリした単純な埋め込み自由な代替法を提案する。
論文 参考訳(メタデータ) (2023-05-20T12:41:47Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - End-to-End Learning of Hybrid Inverse Dynamics Models for Precise and
Compliant Impedance Control [16.88250694156719]
剛体力学モデルの物理的に一貫した慣性パラメータを同定できる新しいハイブリッドモデルの定式化を提案する。
7自由度マニピュレータ上での最先端の逆動力学モデルに対する我々のアプローチを比較した。
論文 参考訳(メタデータ) (2022-05-27T07:39:28Z) - Cubature Kalman Filter Based Training of Hybrid Differential Equation
Recurrent Neural Network Physiological Dynamic Models [13.637931956861758]
ニューラルネットワーク近似を用いて、未知の常微分方程式を既知のODEで近似する方法を示す。
その結果、このRBSEによるNNパラメータのトレーニングは、バックプロパゲーションによるニューラルネットワークのトレーニングよりも優れた結果(測定/状態推定精度)が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-12T15:38:13Z) - A Note on Learning Rare Events in Molecular Dynamics using LSTM and
Transformer [4.80427355202687]
近年,低次元反応座標のシミュレーションデータを用いてLSTMによるスローダイナミクスの学習に成功した。
本稿では, 言語モデル学習の性能, すなわち反応座標の次元性, 時間分解能, 状態分割の3つの重要な要因について述べる。
論文 参考訳(メタデータ) (2021-07-14T09:26:36Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Stochastic Recurrent Neural Network for Multistep Time Series
Forecasting [0.0]
我々は、時系列予測のための繰り返しニューラルネットワークの適応を提案するために、深部生成モデルと状態空間モデルの概念の進歩を活用する。
私たちのモデルは、すべての関連情報が隠された状態でカプセル化されるリカレントニューラルネットワークのアーキテクチャ的な動作を保ち、この柔軟性により、モデルはシーケンシャルモデリングのために任意のディープアーキテクチャに簡単に統合できます。
論文 参考訳(メタデータ) (2021-04-26T01:43:43Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。