論文の概要: Safety in safe Bayesian optimization and its ramifications for control
- arxiv url: http://arxiv.org/abs/2501.13697v1
- Date: Thu, 23 Jan 2025 14:24:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:57:31.975882
- Title: Safety in safe Bayesian optimization and its ramifications for control
- Title(参考訳): 安全ベイズ最適化の安全性と制御への影響
- Authors: Christian Fiedler, Johanna Menn, Sebastian Trimpe,
- Abstract要約: 制御工学では、事前に設計されたコントローラのパラメータは、しばしば植物とのフィードバックでオンラインで調整される。
特に、この重要な問題、特にベイズ最適化(BO)のために機械学習手法が展開されている。
まず、SafeOpt型アルゴリズムは定量的不確実性境界に依存し、ほとんどの実装は理論上はサポートされていない。
リプシッツのみの安全ベイズ最適化(LoSBO)を提案する。
- 参考スコア(独自算出の注目度): 6.450289319821615
- License:
- Abstract: A recurring and important task in control engineering is parameter tuning under constraints, which conceptually amounts to optimization of a blackbox function accessible only through noisy evaluations. For example, in control practice parameters of a pre-designed controller are often tuned online in feedback with a plant, and only safe parameter values should be tried, avoiding for example instability. Recently, machine learning methods have been deployed for this important problem, in particular, Bayesian optimization (BO). To handle safety constraints, algorithms from safe BO have been utilized, especially SafeOpt-type algorithms, which enjoy considerable popularity in learning-based control, robotics, and adjacent fields. However, we identify two significant obstacles to practical safety. First, SafeOpt-type algorithms rely on quantitative uncertainty bounds, and most implementations replace these by theoretically unsupported heuristics. Second, the theoretically valid uncertainty bounds crucially depend on a quantity - the reproducing kernel Hilbert space norm of the target function - that at present is impossible to reliably bound using established prior engineering knowledge. By careful numerical experiments we show that these issues can indeed cause safety violations. To overcome these problems, we propose Lipschitz-only Safe Bayesian Optimization (LoSBO), a safe BO algorithm that relies only on a known Lipschitz bound for its safety. Furthermore, we propose a variant (LoS-GP-UCB) that avoids gridding of the search space and is therefore applicable even for moderately high-dimensional problems.
- Abstract(参考訳): 制御工学における繰り返しかつ重要なタスクは制約の下でのパラメータチューニングであり、概念的にはノイズ評価によってのみアクセス可能なブラックボックス関数の最適化である。
例えば、制御の実践では、事前に設計されたコントローラのパラメータは、しばしば植物とのフィードバックでオンラインで調整される。
近年、この重要な問題、特にベイズ最適化(BO)のために機械学習手法が展開されている。
安全制約に対処するため、安全なBOからのアルゴリズム、特にSafeOpt型アルゴリズムが利用されており、学習ベースの制御、ロボット工学、および隣接する分野でかなりの人気がある。
しかし, 実用安全には2つの重要な障害がある。
まず、SafeOpt型アルゴリズムは定量的不確実性境界に依存し、ほとんどの実装は理論的に支持されないヒューリスティックによって置き換える。
第二に、理論的に有効な不確実性境界は、目標関数の再現されたカーネルヒルベルト空間ノルムである量に決定的に依存する。
注意深い数値実験により、これらの問題が実際に安全違反を引き起こすことが示されている。
これらの問題を解決するために,Lipschitz のみの Safe Bayesian Optimization (LoSBO) を提案する。
さらに,探索空間のグリッド化を回避する変種(LoS-GP-UCB)を提案する。
関連論文リスト
- DADEE: Well-calibrated uncertainty quantification in neural networks for barriers-based robot safety [1.680461336282617]
制御バリア関数(CBF)ベースのアプローチは、高速で安全であるため人気がある。
学習と不確実性推定のためのGPとMC-Dropoutには欠点がある。
GPは遅い非パラメトリック法であるが、MC-Dropoutはアレタリック不確かさを捉えない。
2つのアプローチを組み合わせて、ドメイン内および外部の両方でより正確な不確実性推定を得る。
論文 参考訳(メタデータ) (2024-06-30T07:55:32Z) - On Safety in Safe Bayesian Optimization [5.9045432488022485]
本稿では,一般的なSafeOpt型アルゴリズムの安全性に関する3つの問題について検討する。
まず、これらのアルゴリズムはガウス過程(GP)回帰に対する頻繁な境界の不確実性に批判的に依存する。
第二に、ターゲット関数の再生カーネルヒルベルト空間(RKHS)ノルム上の上限を仮定する。
第3に、SafeOptと派生アルゴリズムは離散的な検索空間に依存しており、高次元問題に適用することは困難である。
論文 参考訳(メタデータ) (2024-03-19T17:50:32Z) - Information-Theoretic Safe Bayesian Optimization [59.758009422067005]
そこでは、未知の(安全でない)制約に反するパラメータを評価することなく、未知の関数を最適化することを目的としている。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2024-02-23T14:31:10Z) - Bayesian Optimization with Formal Safety Guarantees via Online Conformal Prediction [36.14499894307206]
ブラックボックスゼロ階最適化は、金融、物理学、工学といった分野における応用において中心的な原始である。
本稿では,提案手法の安全性に関するフィードバックも提供するシナリオについて検討する。
制約関数の性質に関わらず、安全要件を満たす新しいBOベースのアプローチが導入された。
論文 参考訳(メタデータ) (2023-06-30T17:26:49Z) - Information-Theoretic Safe Exploration with Gaussian Processes [89.31922008981735]
未知の(安全でない)制約に反するパラメータを評価できないような、逐次的な意思決定タスクについて検討する。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2022-12-09T15:23:58Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。