論文の概要: Tailored max-out networks for learning convex PWQ functions
- arxiv url: http://arxiv.org/abs/2206.06826v1
- Date: Tue, 14 Jun 2022 13:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 16:03:42.211144
- Title: Tailored max-out networks for learning convex PWQ functions
- Title(参考訳): 凸PWQ関数学習のためのテーラー最大出力ネットワーク
- Authors: Dieter Teichrib and Moritz Schulze Darup
- Abstract要約: 学習に基づく制御では、凸PWQ関数は、しばしば人工ニューラルネットワークの助けを借りて表現される。
本稿では,1つの隠れ層と2つのニューロンしか持たない,凸PWQ関数をmax-out-NNで正確に記述できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Convex piecewise quadratic (PWQ) functions frequently appear in control and
elsewhere. For instance, it is well-known that the optimal value function (OVF)
as well as Q-functions for linear MPC are convex PWQ functions. Now, in
learning-based control, these functions are often represented with the help of
artificial neural networks (NN). In this context, a recurring question is how
to choose the topology of the NN in terms of depth, width, and activations in
order to enable efficient learning. An elegant answer to that question could be
a topology that, in principle, allows to exactly describe the function to be
learned. Such solutions are already available for related problems. In fact,
suitable topologies are known for piecewise affine (PWA) functions that can,
for example, reflect the optimal control law in linear MPC. Following this
direction, we show in this paper that convex PWQ functions can be exactly
described by max-out-NN with only one hidden layer and two neurons.
- Abstract(参考訳): pwq(convex piecewise quadratic)関数は制御やその他の場所で頻繁に現れる。
例えば、線形MPCに対する最適値関数(OVF)とQ関数が凸PWQ関数であることはよく知られている。
現在、学習に基づく制御では、これらの機能は、しばしば人工ニューラルネットワーク(NN)の助けを借りて表現されている。
この文脈では、効率的な学習を可能にするために、NNのトポロジを深さ、幅、アクティベーションの観点からどのように選ぶかが繰り返される。
その質問に対するエレガントな答えは、原則として、学習すべき関数を正確に記述できるトポロジーであるかもしれない。
このようなソリューションは、すでに関連する問題に対して利用可能である。
実際、適切な位相は、例えば線形MPCにおける最適制御則を反映できる断片的アフィン関数(PWA)に対して知られている。
そこで本論文では,1つの隠蔽層と2つのニューロンしか持たない,凸PWQ関数をmax-out-NNで正確に記述できることを示す。
関連論文リスト
- Feature Mapping in Physics-Informed Neural Networks (PINNs) [1.9819034119774483]
本研究では, Conjugate Kernel と Neural Tangent Kernel を限定した特徴マッピング層を用いた PINN の訓練力学について検討する。
より優れた代替として,条件付き正定値ラジアル基底関数を提案する。
論文 参考訳(メタデータ) (2024-02-10T13:51:09Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - Tailored neural networks for learning optimal value functions in MPC [0.0]
学習ベースの予測制御は、最適化ベースのMPCに代わる有望な代替手段である。
本稿では、線形 MPC に対して、最適値関数と Q-函数を表すために、同様の結果を与える。
論文 参考訳(メタデータ) (2021-12-07T20:34:38Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Towards Lower Bounds on the Depth of ReLU Neural Networks [7.355977594790584]
より多くの層を追加することで、正確に表現可能な関数のクラスが厳密に増加するかどうかを考察する。
We settled an old conjecture about piecewise linear function by Wang and Sun (2005) in affirmative。
対数深度を持つ関数を表すのに必要なニューラルネットワークのサイズについて上限を述べる。
論文 参考訳(メタデータ) (2021-05-31T09:49:14Z) - CDiNN -Convex Difference Neural Networks [0.8122270502556374]
reluアクティベーション関数を持つニューラルネットワークは、普遍関数近似が非スムース関数として関数マッピングを学ぶことが示されている。
ICNNと呼ばれる新しいニューラルネットワークアーキテクチャは、凸入力として出力を学習する。
論文 参考訳(メタデータ) (2021-03-31T17:31:16Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Can Temporal-Difference and Q-Learning Learn Representation? A Mean-Field Theory [110.99247009159726]
時間差とQ-ラーニングは、ニューラルネットワークのような表現力のある非線形関数近似器によって強化される深層強化学習において重要な役割を担っている。
特に時間差学習は、関数近似器が特徴表現において線形であるときに収束する。
論文 参考訳(メタデータ) (2020-06-08T17:25:22Z) - PDE constraints on smooth hierarchical functions computed by neural
networks [0.0]
ディープニューラルネットワーク理論における重要な問題は、表現性である。
フィードフォワードニューラルネットワークによって実装された実無限微分可能(滑らか)階層関数について検討する。
このようなPDE制約は、一旦適切な非特異性条件を伴って、考慮中の滑らかな関数をネットワークで表現できることを保証する。
論文 参考訳(メタデータ) (2020-05-18T16:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。