論文の概要: Machine Learning and Control Theory
- arxiv url: http://arxiv.org/abs/2006.05604v1
- Date: Wed, 10 Jun 2020 01:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 05:07:34.698975
- Title: Machine Learning and Control Theory
- Title(参考訳): 機械学習と制御理論
- Authors: Alain Bensoussan, Yiqun Li, Dinh Phan Cao Nguyen, Minh-Binh Tran,
Sheung Chi Phillip Yam, Xiang Zhou
- Abstract要約: 我々は、強化学習とマルコフ決定過程の関連性を開発する。
第3部では、勾配降下と平均場理論の関連について述べる。
第4部と第5部では、問題を制御する機械学習アプローチをレビューし、決定論的なケースに焦点を当てる。
- 参考スコア(独自算出の注目度): 3.3799540840506377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We survey in this article the connections between Machine Learning and
Control Theory. Control Theory provide useful concepts and tools for Machine
Learning. Conversely Machine Learning can be used to solve large control
problems. In the first part of the paper, we develop the connections between
reinforcement learning and Markov Decision Processes, which are discrete time
control problems. In the second part, we review the concept of supervised
learning and the relation with static optimization. Deep learning which extends
supervised learning, can be viewed as a control problem. In the third part, we
present the links between stochastic gradient descent and mean-field theory.
Conversely, in the fourth and fifth parts, we review machine learning
approaches to stochastic control problems, and focus on the deterministic case,
to explain, more easily, the numerical algorithms.
- Abstract(参考訳): 本稿では,機械学習と制御理論の関係について調査する。
制御理論は機械学習に有用な概念とツールを提供する。
逆に、機械学習は大きな制御問題を解くのに使える。
本稿の第1部では,離散時間制御問題である強化学習とマルコフ決定プロセスとの関係について述べる。
第2部では,教師あり学習の概念と静的最適化との関係を概観する。
教師付き学習を拡張するディープラーニングは、制御問題と見なすことができる。
第3部では,確率勾配降下と平均場理論の関係について述べる。
逆に、第4部と第5部では、確率的制御問題に対する機械学習アプローチをレビューし、決定論的ケースに着目し、より簡単に数値アルゴリズムを説明する。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Recent Developments in Machine Learning Methods for Stochastic Control
and Games [3.3993877661368757]
近年,制御問題やゲームを解決するため,機械学習に基づく計算手法が開発されている。
我々は,高次元や構造が非常に複雑である場合においても,そのような問題を解く可能性を解き明かした深層学習手法に焦点をあてる。
本稿では,これらの手法について紹介し,機械学習と制御とゲームのクロスロードにおける最先端の成果を要約する。
論文 参考訳(メタデータ) (2023-03-17T21:53:07Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - To Supervise or Not: How to Effectively Learn Wireless Interference
Management Models? [43.317056712257994]
機械学習は、無線干渉管理問題の解決に成功している。
このような干渉管理モデルには、教師あり学習と教師なし学習の2つの一般的な訓練パラダイムがある。
特殊な電力制御問題に対して、教師なし学習は教師なし学習よりもはるかに悪い性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-28T06:29:08Z) - Decoding conformal field theories: from supervised to unsupervised
learning [0.0]
機械学習を用いて、合理的な2次元共形場の理論を分類する。
機械はいくつかの強い相関を持つスピンモデルの臨界点の性質と値を正確に予測できる。
論文 参考訳(メタデータ) (2021-06-25T07:58:08Z) - Machine Learning in Event-Triggered Control: Recent Advances and Open
Issues [0.7699714865575188]
本稿では、イベントトリガー制御と機械学習の併用に関する文献をレビューする。
機械学習の利用目的に応じて、これらの学習アルゴリズムが異なるアプリケーションにどのように使用できるかについて論じる。
論文 参考訳(メタデータ) (2020-09-27T08:11:34Z) - Anticipating the Long-Term Effect of Online Learning in Control [75.6527644813815]
AntLerは、学習を予想する学習ベースの制御法則の設計アルゴリズムである。
AntLer は確率 1 と任意に最適な解を近似することを示す。
論文 参考訳(メタデータ) (2020-07-24T07:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。