論文の概要: Are Evolutionary Algorithms Safe Optimizers?
- arxiv url: http://arxiv.org/abs/2203.12622v1
- Date: Thu, 24 Mar 2022 17:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 15:26:45.834737
- Title: Are Evolutionary Algorithms Safe Optimizers?
- Title(参考訳): 進化的アルゴリズムは安全な最適化か?
- Authors: Youngmin Kim, Richard Allmendinger, Manuel L\'opez-Ib\'a\~nez
- Abstract要約: 本稿では、進化計算(EC)コミュニティにおける安全な最適化問題(SafeOP)への関心を再燃させることを目的とする。
我々は、SafeOPの正式な定義を提供し、選択された安全な最適化アルゴリズムの性能に対する鍵となるSafeOPパラメータの影響を調査し、最先端の安全な最適化アルゴリズムに対してECをベンチマークする。
- 参考スコア(独自算出の注目度): 3.3044468943230427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a type of constrained optimization problem, where the violation
of a constraint leads to an irrevocable loss, such as breakage of a valuable
experimental resource/platform or loss of human life. Such problems are
referred to as safe optimization problems (SafeOPs). While SafeOPs have
received attention in the machine learning community in recent years, there was
little interest in the evolutionary computation (EC) community despite some
early attempts between 2009 and 2011. Moreover, there is a lack of acceptable
guidelines on how to benchmark different algorithms for SafeOPs, an area where
the EC community has significant experience in. Driven by the need for more
efficient algorithms and benchmark guidelines for SafeOPs, the objective of
this paper is to reignite the interest of this problem class in the EC
community. To achieve this we (i) provide a formal definition of SafeOPs and
contrast it to other types of optimization problems that the EC community is
familiar with, (ii) investigate the impact of key SafeOP parameters on the
performance of selected safe optimization algorithms, (iii) benchmark EC
against state-of-the-art safe optimization algorithms from the machine learning
community, and (iv) provide an open-source Python framework to replicate and
extend our work.
- Abstract(参考訳): 本研究では,制約の違反が,有意義な実験資源/プラットフォーム破壊や人命喪失など,避けられない損失につながるような制約付き最適化問題について考察する。
このような問題はsafe optimization problem (safeops) と呼ばれる。
safeopsは近年、機械学習コミュニティで注目を集めているが、2009年から2011年の初期の試みにもかかわらず、進化的計算(ec)コミュニティへの関心はほとんどなかった。
さらに、さまざまなアルゴリズムをSafeOPsにベンチマークする方法に関する許容できるガイドラインが欠如しています。
SafeOPsのより効率的なアルゴリズムとベンチマークガイドラインの必要性から,本論文の目的は,ECコミュニティにおけるこの問題クラスの関心を再燃させることである。
これを達成するために
i) SafeOPの正式な定義を提供し、ECコミュニティがよく知っている他のタイプの最適化問題と対比します。
(ii)選択された安全最適化アルゴリズムの性能に対する鍵セーフロップパラメータの影響について検討する。
(iii)機械学習コミュニティによる最先端の安全最適化アルゴリズムに対するベンチマークec
(iv) 作業の複製と拡張を行うためのオープンソースのPythonフレームワークを提供する。
関連論文リスト
- CMA-ES for Safe Optimization [9.130749109828717]
本研究は,効率的な進化アルゴリズムとしてCMA-ESに着目し,安全なCMA-ESと呼ばれる最適化手法を提案する。
安全なCMA-ESは、安全な最適化において安全性と効率の両方を達成するように設計されている。
論文 参考訳(メタデータ) (2024-05-17T04:24:56Z) - On Safety in Safe Bayesian Optimization [5.9045432488022485]
本稿では,一般的なSafeOpt型アルゴリズムの安全性に関する3つの問題について検討する。
まず、これらのアルゴリズムはガウス過程(GP)回帰に対する頻繁な境界の不確実性に批判的に依存する。
第二に、ターゲット関数の再生カーネルヒルベルト空間(RKHS)ノルム上の上限を仮定する。
第3に、SafeOptと派生アルゴリズムは離散的な検索空間に依存しており、高次元問題に適用することは困難である。
論文 参考訳(メタデータ) (2024-03-19T17:50:32Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - SCPO: Safe Reinforcement Learning with Safety Critic Policy Optimization [1.3597551064547502]
本研究では,新しい安全強化学習アルゴリズム,セーフティ・クリティカル・ポリシー・オプティマイゼーションを導入する。
本研究では,安全制約に違反して得られる報酬を無効化する機構である安全評論家を定義した。
理論的解析により,提案アルゴリズムは安全制約への付着と報酬の最大化との間のトレードオフを自動的にバランスできることが示された。
論文 参考訳(メタデータ) (2023-11-01T22:12:50Z) - Bayesian Safe Policy Learning with Chance Constrained Optimization: Application to Military Security Assessment during the Vietnam War [0.0]
ベトナム戦争で採用されたセキュリティアセスメントアルゴリズムを改善できるかどうかを検討する。
この経験的応用は、アルゴリズムによる意思決定においてしばしば発生するいくつかの方法論的課題を提起する。
論文 参考訳(メタデータ) (2023-07-17T20:59:50Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Adaptive Real Time Exploration and Optimization for Safety-Critical
Systems [0.0]
安全制約を考慮したプログラミング問題として,マルチアームバンディットを用いたARTEOアルゴリズムを提案する。
最適化入力の変化と探索を通して環境特性を学習する。
既存のセーフラーニング手法と比較して、我々のアルゴリズムは排他的な探索フェーズを必要とせず、探索点においても最適化目標に従う。
論文 参考訳(メタデータ) (2022-11-10T11:37:22Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Algorithmic Foundations of Empirical X-risk Minimization [51.58884973792057]
この原稿は、機械学習とAIの新しい最適化フレームワーク、bf empirical X-risk baseline (EXM)を紹介している。
Xリスク(X-risk)は、構成測度または目的の族を表すために導入された用語である。
論文 参考訳(メタデータ) (2022-06-01T12:22:56Z) - Safe Online Bid Optimization with Return-On-Investment and Budget
Constraints subject to Uncertainty [87.81197574939355]
最適化問題と学習問題の両方について検討する。
我々は、潜在的に線形な数の制約違反を犠牲にして、サブ線形後悔を保証するアルゴリズム、すなわちGCBを提供する。
より興味深いことに、我々はGCB_safe(psi,phi)というアルゴリズムを提供し、サブ線形擬似回帰と安全性w.h.p.の両方を、耐性 psi と phi を受け入れるコストで保証する。
論文 参考訳(メタデータ) (2022-01-18T17:24:20Z) - On the Optimality of Batch Policy Optimization Algorithms [106.89498352537682]
バッチポリシー最適化は、環境と対話する前に既存のデータをポリシー構築に活用することを検討する。
信頼調整インデックスアルゴリズムは楽観的,悲観的,中立的いずれであってもミニマックス最適であることを示す。
最適値予測の本来の難易度を考慮した新しい重み付き最小値基準を提案する。
論文 参考訳(メタデータ) (2021-04-06T05:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。