論文の概要: Learning Optimal Control with Stochastic Models of Hamiltonian Dynamics
- arxiv url: http://arxiv.org/abs/2111.08108v2
- Date: Wed, 21 Feb 2024 18:58:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 21:56:18.091705
- Title: Learning Optimal Control with Stochastic Models of Hamiltonian Dynamics
- Title(参考訳): ハミルトニアンダイナミクスの確率モデルによる最適制御の学習
- Authors: Chandrajit Bajaj and Minh Nguyen
- Abstract要約: 最適制御問題に対処するための新しい学習フレームワークを提案する。
ポントリャーギンの最大原理を元の最適制御問題に適用することにより、学習焦点はハミルトン力学と対応する随伴変数にシフトする。
- 参考スコア(独自算出の注目度): 3.6929078762384098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimal control problems can be solved by applying the Pontryagin maximum
principle and then solving for a Hamiltonian dynamical system. In this paper,
we propose novel learning frameworks to tackle optimal control problems. By
applying the Pontryagin maximum principle to the original optimal control
problem, the learning focus shifts to reduced Hamiltonian dynamics and
corresponding adjoint variables. The reduced Hamiltonian networks can be
learned by going backward in time and then minimizing loss function deduced
from the Pontryagin maximum principle's conditions. The learning process is
further improved by progressively learning a posterior distribution of reduced
Hamiltonians, utilizing a variational autoencoder which leads to more effective
path exploration process. We apply our learning frameworks to control tasks and
obtain competitive results.
- Abstract(参考訳): 最適制御問題はポントリャーギンの最大原理を適用し、ハミルトニアン力学系のために解くことで解くことができる。
本稿では,最適制御問題に取り組むための新しい学習フレームワークを提案する。
ポントリャーギンの最大原理を元の最適制御問題に適用することにより、学習焦点はハミルトニアンダイナミクスと対応する随伴変数の低減にシフトする。
減少ハミルトニアンネットワークは、ポントリャーギンの最大原理の条件から導かれる損失関数を最小化することで学習することができる。
学習過程は、より効率的な経路探索プロセスをもたらす変分オートエンコーダを用いて、縮小ハミルトンの後方分布を漸進的に学習することでさらに改善される。
学習フレームワークを適用してタスクを制御し、競争結果を得る。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Neural Time-Reversed Generalized Riccati Equation [60.92253836775246]
ハミルトン方程式は、コストテートとして知られる補助変数を通して最適性の解釈を提供する。
本稿では,前向きに作業することを目的とした,新しいニューラルベースによる最適制御手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T19:29:37Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - Practical Black Box Hamiltonian Learning [0.9281671380673306]
本稿では,量子多体系のハミルトニアンパラメータの学習問題について考察する。
我々は、微分推定によるハミルトン学習への最近のアプローチに基づいて構築する。
論文 参考訳(メタデータ) (2022-06-30T17:56:14Z) - Learning Neural Hamiltonian Dynamics: A Methodological Overview [109.40968389896639]
Hamiltonian dynamicsは、ニューラルネットワークに正確な長期予測、解釈可能性、データ効率の学習を与える。
我々は最近提案したハミルトンニューラルネットワークモデルについて、特に方法論に焦点を当てて体系的に調査した。
論文 参考訳(メタデータ) (2022-02-28T22:54:39Z) - A control method for solving high-dimensional Hamiltonian systems
through deep neural networks [0.2752817022620644]
まず、ハミルトニアン制御系がまさに解決すべき問題であるような対応する最適制御問題を導入し、その後、制御問題の異なるケースに適した2つの異なるアルゴリズムを開発し、深層ニューラルネットワークによる制御を近似する。
数値的な結果から、FBSDEを解く観点から以前に開発されたDeep FBSDE法と比較して、新しいアルゴリズムはより高速に収束する。
論文 参考訳(メタデータ) (2021-11-04T05:22:08Z) - Can we learn gradients by Hamiltonian Neural Networks? [68.8204255655161]
本稿では,勾配を学習するODEニューラルネットワークに基づくメタラーナを提案する。
提案手法は,LLUアクティベーションを最適化したMLMとMNISTデータセットにおいて,LSTMに基づくメタラーナーよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-31T18:35:10Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - Symplectic Learning for Hamiltonian Neural Networks [0.0]
Hamiltonian Neural Networks (HNN)は、統一された"グレーボックス"アプローチに向けた第一歩を踏み出した。
損失関数が異なるハミルトン系のシンプレクティック構造を利用する。
HNNが学習できる正確なハミルトン関数の存在を数学的に保証する。
論文 参考訳(メタデータ) (2021-06-22T13:33:12Z) - Hamiltonian neural networks for solving equations of motion [3.1498833540989413]
本稿では,力学系を支配する微分方程式を解くハミルトニアンニューラルネットワークを提案する。
シンプレクティックオイラー積分器は、数値誤差の同じ順序を達成するために、ハミルトンネットワークよりも2桁多くの評価点を必要とする。
論文 参考訳(メタデータ) (2020-01-29T21:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。