論文の概要: Nested Mixture of Experts: Cooperative and Competitive Learning of
Hybrid Dynamical System
- arxiv url: http://arxiv.org/abs/2011.10605v2
- Date: Thu, 29 Apr 2021 06:08:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 06:43:13.848681
- Title: Nested Mixture of Experts: Cooperative and Competitive Learning of
Hybrid Dynamical System
- Title(参考訳): 専門家の入れ子型混合--ハイブリッド力学系の協調学習と競争学習
- Authors: Junhyeok Ahn and Luis Sentis
- Abstract要約: ハイブリッド力学系を表現・学習するためのNMOE(Nested Mixed Expert)を提案する。
NMOEは、バイアス分散トレードオフを最適化しながら、ホワイトボックスモデルとブラックボックスモデルを組み合わせる。
NMOEは、アソシエイトの専門家を協調的または競争的に訓練することにより、様々な種類の事前知識を統合するための構造化された方法を提供する。
- 参考スコア(独自算出の注目度): 2.055949720959582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model-based reinforcement learning (MBRL) algorithms can attain significant
sample efficiency but require an appropriate network structure to represent
system dynamics. Current approaches include white-box modeling using analytic
parameterizations and black-box modeling using deep neural networks. However,
both can suffer from a bias-variance trade-off in the learning process, and
neither provides a structured method for injecting domain knowledge into the
network. As an alternative, gray-box modeling leverages prior knowledge in
neural network training but only for simple systems. In this paper, we devise a
nested mixture of experts (NMOE) for representing and learning hybrid dynamical
systems. An NMOE combines both white-box and black-box models while optimizing
bias-variance trade-off. Moreover, an NMOE provides a structured method for
incorporating various types of prior knowledge by training the associative
experts cooperatively or competitively. The prior knowledge includes
information on robots' physical contacts with the environments as well as their
kinematic and dynamic properties. In this paper, we demonstrate how to
incorporate prior knowledge into our NMOE in various continuous control
domains, including hybrid dynamical systems. We also show the effectiveness of
our method in terms of data-efficiency, generalization to unseen data, and
bias-variance trade-off. Finally, we evaluate our NMOE using an MBRL setup,
where the model is integrated with a model-based controller and trained online.
- Abstract(参考訳): モデルベース強化学習(MBRL)アルゴリズムは,サンプル効率が向上するが,システムダイナミクスを表現するには適切なネットワーク構造が必要である。
現在のアプローチには、解析パラメータ化を用いたホワイトボックスモデリングとディープニューラルネットワークを用いたブラックボックスモデリングが含まれる。
しかし、どちらも学習プロセスにおけるバイアス分散トレードオフに悩まされ、ドメイン知識をネットワークに注入するための構造化された方法を提供しない。
代案として、グレーボックスモデリングはニューラルネットワークトレーニングの事前知識を活用するが、単純なシステムに限られる。
本稿では,ハイブリッド力学系を表現・学習するために,nested mixture of experts (nmoe) を考案する。
NMOEは、バイアス分散トレードオフを最適化しながら、ホワイトボックスモデルとブラックボックスモデルを組み合わせる。
さらに、nmoeは、連携専門家を協力的または競争的に訓練することにより、様々な種類の事前知識を組み込む構造化手法を提供する。
以前の知識には、ロボットの環境との物理的接触に関する情報と、その運動的および動的特性が含まれる。
本稿では,ハイブリッド力学系を含む様々な連続制御領域において,事前知識をnmoeに組み込む方法について述べる。
また,本手法の有効性を,データ効率性,非知覚データへの一般化,バイアス分散トレードオフの観点から示す。
最後に、MBRLセットアップを用いてNMOEを評価し、モデルをモデルベースコントローラと統合し、オンラインでトレーニングする。
関連論文リスト
- Joint torques prediction of a robotic arm using neural networks [4.019105975232108]
動的モデルを導出する伝統的なアプローチは、ラグランジュ力学やニュートン力学の応用に基づいている。
一般的な代替手段は、"ブラックボックス"方法論のコンテキストにおける機械学習(ML)技術の適用である。
本稿では,実際の6自由度マニピュレータ(DoF)に対するこのアプローチの経験について報告する。
論文 参考訳(メタデータ) (2024-03-28T09:38:26Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Dynamic Mixed Membership Stochastic Block Model for Weighted Labeled
Networks [3.5450828190071655]
混合メンバシップブロックモデル(MMSBM)の新たなファミリーは、混合メンバシップクラスタリングを前提として静的ラベル付きネットワークをモデル化することができる。
提案手法は既存手法とは大きく異なり,より複雑なシステム - 動的ラベル付きネットワークをモデル化できることを示す。
論文 参考訳(メタデータ) (2023-04-12T15:01:03Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Using Data Assimilation to Train a Hybrid Forecast System that Combines
Machine-Learning and Knowledge-Based Components [52.77024349608834]
利用可能なデータがノイズの多い部分測定の場合,カオスダイナミクスシステムのデータ支援予測の問題を検討する。
動的システムの状態の部分的測定を用いることで、不完全な知識ベースモデルによる予測を改善するために機械学習モデルを訓練できることを示す。
論文 参考訳(メタデータ) (2021-02-15T19:56:48Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Distributed Training of Deep Learning Models: A Taxonomic Perspective [11.924058430461216]
分散ディープラーニングシステム(DDLS)は、クラスタの分散リソースを利用することで、ディープニューラルネットワークモデルをトレーニングする。
私たちは、独立したマシンのクラスタでディープニューラルネットワークをトレーニングする際の、作業の基本原則に光を当てることを目指しています。
論文 参考訳(メタデータ) (2020-07-08T08:56:58Z) - Learning Queuing Networks by Recurrent Neural Networks [0.0]
データから性能モデルを導出する機械学習手法を提案する。
我々は、通常の微分方程式のコンパクトな系の観点から、それらの平均力学の決定論的近似を利用する。
これにより、ニューラルネットワークの解釈可能な構造が可能になり、システム測定からトレーニングしてホワイトボックスパラメータ化モデルを生成することができる。
論文 参考訳(メタデータ) (2020-02-25T10:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。