論文の概要: Variational Hierarchical Mixtures for Probabilistic Learning of Inverse
Dynamics
- arxiv url: http://arxiv.org/abs/2211.01120v2
- Date: Sun, 10 Sep 2023 14:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 23:02:05.907765
- Title: Variational Hierarchical Mixtures for Probabilistic Learning of Inverse
Dynamics
- Title(参考訳): 逆ダイナミクスの確率的学習のための変分階層混合
- Authors: Hany Abdulsamad, Peter Nickl, Pascal Klink, Jan Peters
- Abstract要約: 適切に校正された確率回帰モデルは、データセットが急速に成長し、タスクがより複雑になるにつれて、ロボットアプリケーションにおいて重要な学習要素である。
計算効率のよい表現と計算複雑性の正規化を両世界の利点と組み合わせた確率論的階層的モデリングパラダイムを考察する。
これらの表現を学習するための2つの効率的な変分推論手法を導出し、階層的無限局所回帰モデルの利点を強調する。
- 参考スコア(独自算出の注目度): 20.953728061894044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Well-calibrated probabilistic regression models are a crucial learning
component in robotics applications as datasets grow rapidly and tasks become
more complex. Unfortunately, classical regression models are usually either
probabilistic kernel machines with a flexible structure that does not scale
gracefully with data or deterministic and vastly scalable automata, albeit with
a restrictive parametric form and poor regularization. In this paper, we
consider a probabilistic hierarchical modeling paradigm that combines the
benefits of both worlds to deliver computationally efficient representations
with inherent complexity regularization. The presented approaches are
probabilistic interpretations of local regression techniques that approximate
nonlinear functions through a set of local linear or polynomial units.
Importantly, we rely on principles from Bayesian nonparametrics to formulate
flexible models that adapt their complexity to the data and can potentially
encompass an infinite number of components. We derive two efficient variational
inference techniques to learn these representations and highlight the
advantages of hierarchical infinite local regression models, such as dealing
with non-smooth functions, mitigating catastrophic forgetting, and enabling
parameter sharing and fast predictions. Finally, we validate this approach on
large inverse dynamics datasets and test the learned models in real-world
control scenarios.
- Abstract(参考訳): 適切に調整された確率的回帰モデルは、データセットが急速に成長し、タスクがより複雑になるにつれて、ロボットアプリケーションにおいて重要な学習要素となる。
残念なことに、古典回帰モデルは通常、データに優雅にスケールしない柔軟な構造を持つ確率論的カーネルマシンか、決定論的で拡張性の高いオートマトンである。
本稿では,計算効率の高い表現と固有複雑性の正規化を両世界の利点と組み合わせた,確率的階層的モデリングパラダイムについて考察する。
提案手法は局所線型あるいは多項式単位の集合を通して非線形関数を近似する局所回帰手法の確率論的解釈である。
重要なことは、ベイズ非パラメトリックの原理に頼って、データの複雑さに適応し、無限個のコンポーネントを包含できるフレキシブルなモデルを定式化します。
これらの表現を学習するための2つの効率的な変分推論手法を導出し、非スムース関数の扱い、破滅的な忘れることの緩和、パラメータ共有と高速な予測を可能にするなど、階層的な無限局所回帰モデルの利点を強調する。
最後に,このアプローチを大規模逆ダイナミクスデータセット上で検証し,実世界の制御シナリオで学習モデルをテストする。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Toward Physically Plausible Data-Driven Models: A Novel Neural Network
Approach to Symbolic Regression [2.7071541526963805]
本稿では,ニューラルネットワークに基づく記号回帰手法を提案する。
非常に小さなトレーニングデータセットとシステムに関する事前知識に基づいて、物理的に妥当なモデルを構築する。
本研究では,TurtleBot 2移動ロボット,磁気操作システム,2つの抵抗の等価抵抗,アンチロックブレーキシステムの長手力の4つの試験システムに対するアプローチを実験的に評価した。
論文 参考訳(メタデータ) (2023-02-01T22:05:04Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - A Free Lunch with Influence Functions? Improving Neural Network
Estimates with Concepts from Semiparametric Statistics [41.99023989695363]
ニューラルネットワークや機械学習アルゴリズムの改善に使用される半パラメトリック理論の可能性を探る。
本稿では,単一アーキテクチャを用いてアンサンブルの柔軟性と多様性を求めるニューラルネットワーク手法であるMultiNetを提案する。
論文 参考訳(メタデータ) (2022-02-18T09:35:51Z) - A Framework for Machine Learning of Model Error in Dynamical Systems [7.384376731453594]
データから動的システムを特定するために,機械的アプローチと機械学習アプローチを混在させる統一フレームワークを提案する。
モデルエラーがメモリレスであり、大きなメモリを持つ問題に対して、連続時間と離散時間の両方で問題を提起した。
ハイブリッド手法は、データ飢餓、モデルの複雑さの要求、全体的な予測性能において、データ駆動アプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-07-14T12:47:48Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - A Variational Infinite Mixture for Probabilistic Inverse Dynamics
Learning [34.90240171916858]
確率的局所モデルの無限混合に対する効率的な変分ベイズ推論手法を開発した。
我々は、データ駆動適応、高速予測、不連続関数とヘテロセダスティックノイズに対処する能力の組み合わせにおけるモデルのパワーを強調した。
学習したモデルを用いてBarrett-WAMマニピュレータのオンライン動的制御を行い、軌道追跡性能を大幅に改善した。
論文 参考訳(メタデータ) (2020-11-10T16:15:13Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Flexible Bayesian Nonlinear Model Configuration [10.865434331546126]
線形あるいは単純なパラメトリックモデルはしばしば入力変数と応答の間の複雑な関係を記述するのに十分ではない。
高いフレキシブルな非線形パラメトリック回帰モデルの構築と選択に柔軟なアプローチを導入する。
遺伝的に修飾されたモードジャンプチェーンモンテカルロアルゴリズムを用いてベイズ推論を行う。
論文 参考訳(メタデータ) (2020-03-05T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。