論文の概要: Scalable Learning of Safety Guarantees for Autonomous Systems using
Hamilton-Jacobi Reachability
- arxiv url: http://arxiv.org/abs/2101.05916v1
- Date: Fri, 15 Jan 2021 00:13:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:11:18.366060
- Title: Scalable Learning of Safety Guarantees for Autonomous Systems using
Hamilton-Jacobi Reachability
- Title(参考訳): Hamilton-Jacobi Reachability を用いた自律システムの安全保証のスケーラブルな学習
- Authors: Sylvia Herbert, Jason J. Choi, Suvansh Qazi, Marsalis Gibson, Koushil
Sreenath, Claire J. Tomlin
- Abstract要約: Hamilton-Jacobiリーチビリティのような方法は、そのようなシステムに保証された安全セットとコントローラを提供することができる。
システムが稼働中は、これらの不確実性に関する新たな知識を学習し、それに従って安全性分析を更新する必要がある。
本稿では,分解,ウォームスタート,アダプティブグリッドなど,計算を高速化するいくつかの手法を合成する。
- 参考スコア(独自算出の注目度): 18.464688553299663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous systems like aircraft and assistive robots often operate in
scenarios where guaranteeing safety is critical. Methods like Hamilton-Jacobi
reachability can provide guaranteed safe sets and controllers for such systems.
However, often these same scenarios have unknown or uncertain environments,
system dynamics, or predictions of other agents. As the system is operating, it
may learn new knowledge about these uncertainties and should therefore update
its safety analysis accordingly. However, work to learn and update safety
analysis is limited to small systems of about two dimensions due to the
computational complexity of the analysis. In this paper we synthesize several
techniques to speed up computation: decomposition, warm-starting, and adaptive
grids. Using this new framework we can update safe sets by one or more orders
of magnitude faster than prior work, making this technique practical for many
realistic systems. We demonstrate our results on simulated 2D and 10D
near-hover quadcopters operating in a windy environment.
- Abstract(参考訳): 航空機や補助ロボットのような自律システムは、安全性を保証することが重要なシナリオでしばしば機能する。
Hamilton-Jacobiリーチビリティのような手法は、そのようなシステムに対して保証された安全な集合とコントローラを提供することができる。
しかし、これらのシナリオは未知あるいは不確実な環境、システムダイナミクス、あるいは他のエージェントの予測を持つことが多い。
システムが稼働中は、これらの不確実性に関する新たな知識を学習し、それに従って安全性分析を更新する必要がある。
しかしながら、安全性分析の学習と更新は、解析の計算複雑性のため、およそ2次元の小さなシステムに限られる。
本稿では,分解,ウォームスタート,適応グリッドなど,計算を高速化するいくつかの手法を合成する。
この新しいフレームワークを使用すると、セーフセットを以前の作業よりも1桁以上早く更新でき、このテクニックを多くの現実的なシステムで実用的なものにします。
風環境下で作動する2Dおよび10D近接ホバークワッドコプターのシミュレーション実験を行った。
関連論文リスト
- In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [97.82118821263825]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Guided Safe Shooting: model based reinforcement learning with safety constraints [3.8490154494129327]
安全制約の最小限の違反でシステムを制御できるモデルベースのRLアプローチであるGuSS(Guid Safe Shooting)を導入する。
提案する安全プランナは3つあり,1つは単純なランダム・シューティング・ストラテジーに基づくもので,もう1つはより高度な分岐探索アルゴリズムMAP-Elitesに基づくものである。
論文 参考訳(メタデータ) (2022-06-20T12:46:35Z) - An Empirical Analysis of the Use of Real-Time Reachability for the
Safety Assurance of Autonomous Vehicles [7.1169864450668845]
本稿では,1/10スケールのオープンソース自動運転車プラットフォームの安全性を確保するために,シンプルなアーキテクチャの実装にリアルタイムリーチビリティアルゴリズムを提案する。
提案手法では,システムの将来状態に対するコントローラの判断の影響に着目して,基盤となるコントローラを解析する必要性を抽象化する。
論文 参考訳(メタデータ) (2022-05-03T11:12:29Z) - Safety-aware Policy Optimisation for Autonomous Racing [17.10371721305536]
ハミルトン・ヤコビ(HJ)到達可能性理論を制約付きマルコフ決定過程(CMDP)フレームワークに導入する。
我々は,HJの安全性を視覚的文脈で直接学習できることを実証した。
我々は、最近リリースされた高忠実な自律走行環境であるSafety GymやLearning-to-Race (L2R)など、いくつかのベンチマークタスクにおいて、本手法の評価を行った。
論文 参考訳(メタデータ) (2021-10-14T20:15:45Z) - Safely Learning Dynamical Systems from Short Trajectories [12.184674552836414]
未知の力学系を制御することの学習における根本的な課題は、安全を維持しながら測定を行うことによってモデルの不確実性を減少させることである。
我々は,次の軌道の始点を逐次決定することで,力学系を安全に学習することの意味の数学的定義を定式化する。
本稿では,長さ1の軌跡から真の力学を安全に復元するか,安全な学習が不可能であることを証明した線形プログラミングに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-24T18:06:10Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。