論文の概要: High-Dimensional Surrogate Modeling for Closed-Loop Learning of Neural-Network-Parameterized Model Predictive Control
- arxiv url: http://arxiv.org/abs/2512.11705v1
- Date: Fri, 12 Dec 2025 16:41:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.842096
- Title: High-Dimensional Surrogate Modeling for Closed-Loop Learning of Neural-Network-Parameterized Model Predictive Control
- Title(参考訳): ニューラルネットワークパラメータモデル予測制御の閉ループ学習のための高次元サロゲートモデリング
- Authors: Sebastian Hirt, Valentinus Suwanto, Hendrik Alsmeier, Maik Pfefferkorn, Rolf Findeisen,
- Abstract要約: クローズドループデータからのコントローラパラメータの学習はクローズドループ性能を向上させることが示されている。
奇妙な高次元のコントローラパラメータ化は、例えば、チューニングモデル予測コントローラに現れる。
奇妙なニューラルネットワークサロゲートモデルは、密度の高い高次元コントローラパラメータ化を学習するのに適しているかもしれない。
- 参考スコア(独自算出の注目度): 0.5872014229110214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning controller parameters from closed-loop data has been shown to improve closed-loop performance. Bayesian optimization, a widely used black-box and sample-efficient learning method, constructs a probabilistic surrogate of the closed-loop performance from few experiments and uses it to select informative controller parameters. However, it typically struggles with dense high-dimensional controller parameterizations, as they may appear, for example, in tuning model predictive controllers, because standard surrogate models fail to capture the structure of such spaces. This work suggests that the use of Bayesian neural networks as surrogate models may help to mitigate this limitation. Through a comparison between Gaussian processes with Matern kernels, finite-width Bayesian neural networks, and infinite-width Bayesian neural networks on a cart-pole task, we find that Bayesian neural network surrogate models achieve faster and more reliable convergence of the closed-loop cost and enable successful optimization of parameterizations with hundreds of dimensions. Infinite-width Bayesian neural networks also maintain performance in settings with more than one thousand parameters, whereas Matern-kernel Gaussian processes rapidly lose effectiveness. These results indicate that Bayesian neural network surrogate models may be suitable for learning dense high-dimensional controller parameterizations and offer practical guidance for selecting surrogate models in learning-based controller design.
- Abstract(参考訳): クローズドループデータからのコントローラパラメータの学習はクローズドループ性能を改善することが示されている。
広く使われているブラックボックスとサンプル効率の学習手法であるベイズ最適化は、少数の実験から閉ループ性能の確率的サロゲートを構築し、情報的制御パラメータを選択するために利用する。
しかし、標準サロゲートモデルはそのような空間の構造を捉えないため、例えばモデル予測コントローラをチューニングする際に現れるように、高次元のコントローラーパラメータ化に苦しむのが普通である。
この研究はベイズニューラルネットワークを代理モデルとして用いることが、この制限を軽減するのに役立つことを示唆している。
ガウス過程とMaternカーネル,有限幅ベイズニューラルネットワーク,および無限幅ベイズニューラルネットワークとの比較により,ベイズニューラルネットワークサロゲートモデルがクローズドループコストのより高速で信頼性の高い収束を実現し,数百次元のパラメータ化をうまく最適化できることを見出した。
無限幅ベイズニューラルネットワークは1000以上のパラメータを持つ設定でも性能を維持するが、Matern-kernel Gaussianプロセスは急速に効率を損なう。
これらの結果から,ベイジアンニューラルネットワークサロゲートモデルは高次元高次元制御パラメータ化学習に適したモデルであり,学習ベース制御設計においてサロゲートモデルを選択するための実用的なガイダンスを提供する可能性が示唆された。
関連論文リスト
- Fine-Grained AI Model Caching and Downloading With Coordinated Multipoint Broadcasting in Multi-Cell Edge Networks [19.348574424115935]
6Gネットワークは、エンドユーザの多様な推論要件を満たすために、オンデマンドAIモデルのダウンロードをサポートすることを想定している。
現代のAIモデルのかなりのサイズは、限られたストレージ容量下でのエッジキャッシングに重大な課題をもたらす。
本稿では,パラメータ再利用性を利用したきめ細かいAIモデルキャッシングとダウンロードシステムを提案する。
論文 参考訳(メタデータ) (2025-09-16T09:14:15Z) - Imitation Learning of MPC with Neural Networks: Error Guarantees and Sparsification [5.260346080244568]
本稿では,ニューラルネットワークを用いた模倣モデル予測制御系における近似誤差の有界化のためのフレームワークを提案する。
本稿では,この手法を用いて,性能保証付き安定型ニューラルネットワークコントローラを設計する方法について論じる。
論文 参考訳(メタデータ) (2025-01-07T10:18:37Z) - Stochastic Model Predictive Control Utilizing Bayesian Neural Networks [0.0]
測定と履歴データを統合することで、学習ベースの技術によって制御システムを強化することができるが、性能と安全性を確保することは困難である。
学習支援制御のためのベイズニューラルネットワークを探索し,その性能を排水処理プラントモデル上のガウス過程と比較した。
論文 参考訳(メタデータ) (2023-03-25T16:58:11Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - Pre-trained Gaussian Processes for Bayesian Optimization [24.730678780782647]
本稿では,HyperBO という事前学習型 BO フレームワークを提案する。
GPが既知の「地中真実」を仮定することなく, 後続の予測と, ほぼゼロの後悔をHyperBOに示す。
論文 参考訳(メタデータ) (2021-09-16T20:46:26Z) - Variational Inference with NoFAS: Normalizing Flow with Adaptive
Surrogate for Computationally Expensive Models [7.217783736464403]
マルコフ連鎖モンテカルロのようなサンプリングに基づくアプローチの使用は、それぞれの可能性評価が計算的に高価であるときに難解になる可能性がある。
変分推論と正規化フローを組み合わせた新しいアプローチは、潜在変数空間の次元と線形にしか成長しない計算コストによって特徴づけられる。
本稿では,ニューラルネットワークサロゲートモデルの正規化フローパラメータと重みを代わりに更新する最適化戦略である,適応サロゲートを用いた正規化フロー(NoFAS)を提案する。
論文 参考訳(メタデータ) (2021-08-28T14:31:45Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。