論文の概要: Learning Ensembles of Vision-based Safety Control Filters
- arxiv url: http://arxiv.org/abs/2412.02029v1
- Date: Mon, 02 Dec 2024 23:19:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:50:51.380618
- Title: Learning Ensembles of Vision-based Safety Control Filters
- Title(参考訳): 視覚に基づく安全制御フィルタの学習アンサンブル
- Authors: Ihab Tabbara, Hussein Sibai,
- Abstract要約: 制御システムの安全フィルタは、安全制約に違反する名目制御を補正する。
この課題に取り組むためのディープラーニングベースのアプローチが最近提案されている。
本研究では,これらのフィルタの精度向上と分布外一般化におけるアンサンブルの有効性を実証的に検討する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Safety filters in control systems correct nominal controls that violate safety constraints. Designing such filters as functions of visual observations in uncertain and complex environments is challenging. Several deep learning-based approaches to tackle this challenge have been proposed recently. However, formally verifying that the learned filters satisfy critical properties that enable them to guarantee the safety of the system is currently beyond reach. Instead, in this work, motivated by the success of ensemble methods in reinforcement learning, we empirically investigate the efficacy of ensembles in enhancing the accuracy and the out-of-distribution generalization of such filters, as a step towards more reliable ones. We experiment with diverse pre-trained vision representation models as filter backbones, training approaches, and output aggregation techniques. We compare the performance of ensembles with different configurations against each other, their individual member models, and large single-model baselines in distinguishing between safe and unsafe states and controls in the DeepAccident dataset. Our results show that diverse ensembles have better state and control classification accuracies compared to individual models.
- Abstract(参考訳): 制御システムの安全フィルタは、安全制約に違反する名目制御を補正する。
このようなフィルタを不確実で複雑な環境での視覚的観察の関数として設計することは困難である。
この課題に取り組むためのディープラーニングベースのアプローチが、最近いくつか提案されている。
しかし、学習したフィルタが重要な特性を満たすことを正式に検証することで、システムの安全性が現在到達範囲を超えていることを保証できる。
そこで,本研究では,強化学習におけるアンサンブル法の成功を動機として,より信頼性の高いアンサンブルの精度向上と,そのようなフィルタの分布外一般化に対するアンサンブルの有効性を実証的に検討する。
我々は、フィルタバックボーン、トレーニングアプローチ、出力集約技術として、様々な事前学習された視覚表現モデルを試行する。
安全な状態と安全でない状態とDeepAccidentデータセットの制御を区別するために、異なる構成のアンサンブルのパフォーマンス、個々のメンバーモデル、大きな単一モデルベースラインを比較した。
実験の結果,多様なアンサンブルは個々のモデルと比較して,状態と制御の精度がよいことがわかった。
関連論文リスト
- Pre-Trained Vision Models as Perception Backbones for Safety Filters in Autonomous Driving [2.4381063627159523]
エンド・ツー・エンドのビジョンに基づく自動運転において、安全は依然として大きな関心事である。
我々は、凍結した事前学習された視覚表現モデルを知覚バックボーンとして使用し、視覚に基づく安全フィルタを設計する。
この状況下では、4つの一般的な事前学習型視覚モデルのオフライン性能を実証的に評価する。
論文 参考訳(メタデータ) (2024-10-29T22:59:23Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - Safety Filters for Black-Box Dynamical Systems by Learning Discriminating Hyperplanes [26.242421052632807]
ブラックボックス力学系における安全フィルタの効果的なアプローチとして,学習ベースのアプローチが登場している。
a) 教師付き学習アプローチ, ラベル付けのための事前検証された制御不変集合, および (b) そのようなラベルを必要としない強化学習(RL)アプローチの2つの方法を提案する。
論文 参考訳(メタデータ) (2024-02-07T21:49:51Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - Learning Hybrid Control Barrier Functions from Data [66.37785052099423]
ハイブリッドシステムの安全な制御法則を得るための体系的なツールが欠如していることから,データから確実に安全な制御法則を学習するための最適化ベースのフレームワークを提案する。
特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。
論文 参考訳(メタデータ) (2020-11-08T23:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。